Freigeben über


Referenz zur Systemtabelle für abrechnungsfähigen Verbrauch

Dieser Artikel bietet eine Übersicht über die Systemtabelle für den abrechenbaren Verbrauch, einschließlich des Schemas und Beispielabfragen. Bei Systemtabellen werden die abrechnungsfähigen Nutzungsdaten Ihres Kontos zentralisiert und an alle Regionen weitergeleitet, sodass Sie die globale Nutzung Ihres Kontos aus der Region anzeigen können, in der sich Ihr Arbeitsbereich befindet.

Informationen zur Verwendung dieser Tabelle zur Überwachung von Kosten und Beispielabfragen finden Sie unter Überwachen von Kosten mithilfe von Systemtabellen.

Tabellenpfad: Diese Systemtabelle befindet sich unter system.billing.usage.

Schema der Tabelle für den abrechenbaren Verbrauch

Die Systemtabelle für den abrechenbaren Verbrauch verwendet das folgende Schema:

Spaltenname Datentyp Description Example
record_id string Eindeutige ID für diesen Verwendungsdatensatz 11e22ba4-87b9-4cc2-9770-d10b894b7118
account_id string ID des Kontos, für das dieser Bericht generiert wurde 23e22ba4-87b9-4cc2-9770-d10b894b7118
workspace_id string ID des Arbeitsbereichs, dem diese Verwendung zugeordnet war 1234567890123456
sku_name string Name der SKU STANDARD_ALL_PURPOSE_COMPUTE
cloud string Cloud, die dieser Nutzung zugeordnet ist. Mögliche Werte sind AWS, AZURE und GCP. AWS, AZUREoder GCP
usage_start_time timestamp Die Startzeit, die für diesen Verbrauchsdatensatz relevant ist Zeitzoneninformationen werden am Ende des Werts aufgezeichnet, wobei +00:00 die Zeitzone „UTC“ darstellt. 2023-01-09 10:00:00.000+00:00
usage_end_time timestamp Die Endzeit, die für diesen Verbrauchsdatensatz relevant ist Zeitzoneninformationen werden am Ende des Werts aufgezeichnet, wobei +00:00 die Zeitzone „UTC“ darstellt. 2023-01-09 11:00:00.000+00:00
usage_date date Datum des Verbrauchsdatensatzes, dieses Feld kann für eine schnellere Aggregation nach Datum verwendet werden 2023-01-01
custom_tags map Benutzerdefinierte Tags, die dem Verwendungsdatensatz zugeordnet sind { “env”: “production” }
usage_unit string Einheit, in der diese Verwendung gemessen wird DBU
usage_quantity decimal Zahl der für diesen Datensatz verbrauchten Einheiten 259.2958
usage_metadata struct Vom System bereitgestellte Metadaten zum Verbrauch, einschließlich IDs für Computeressourcen und Aufträge (falls zutreffend). Siehe Verwendungsmetadaten. Siehe Nutzungsmetadaten
identity_metadata struct Vom System bereitgestellte Metadaten zu den Identitäten, die an der Verwendung beteiligt sind. Siehe Identitätsmetadaten. Siehe Identitätsmetadaten
record_type string Ob der Datensatz original, ein Zurückziehen oder eine Neuformulierung ist. Der Wert ist ORIGINAL, es sei denn, der Datensatz bezieht sich auf eine Korrektur. Siehe Datensatztyp. ORIGINAL
ingestion_date date Datum, an dem der Datensatz in die usage Tabelle aufgenommen wurde 2024-01-01
billing_origin_product string Das Produkt, das den Verbrauch ausgelöst hat. Einige Produkte können als unterschiedliche SKUs in Rechnung gestellt werden. Mögliche Werte finden Sie unter "Produkt". JOBS
product_features struct Details zu den spezifischen verwendeten Produktfeatures. Siehe Produktfeatures. Produkteigenschaften anzeigen
usage_type string Der Nutzungstyp, der dem Produkt oder der Arbeitslast für Abrechnungszwecke zugeordnet ist. Mögliche Werte sind COMPUTE_TIME, , STORAGE_SPACE, NETWORK_BYTE, NETWORK_HOURAPI_OPERATION, , TOKEN, oder GPU_TIMEANSWER. STORAGE_SPACE

Referenz zu Verbrauchsmetadaten

Die Werte in usage_metadata sind Zeichenfolgen, die Informationen über die im Verwendungsdatensatz enthaltenen Arbeitsbereichsobjekte und Ressourcen liefern.

Je nach verwendetem Berechnungstyp und den verwendeten Features wird nur eine Teilmenge dieser Werte in einem bestimmten Verwendungsdatensatz aufgefüllt. Die dritte Spalte in der Tabelle zeigt, welche Verwendungstypen bewirken, dass jeder Wert aufgefüllt wird.

Value Description Aufgefüllt für (andernfalls null)
cluster_id ID des Clusters, der dem Verwendungsdatensatz zugeordnet ist Nicht-serverlose Computenutzung, einschließlich Notizbüchern, Aufgaben, Lakeflow Spark Deklarative Pipelines und Legacy-Modellbereitstellung
job_id ID des Auftrags, der dem Verwendungsdatensatz zugeordnet ist Serverlose Aufträge und Aufträge, die auf der Auftragsberechnungsinfrastruktur ausgeführt werden (wird nicht für Aufträge aufgefüllt, die auf Universalberechnung laufen)
warehouse_id ID des SQL-Warehouses, das dem Nutzungsdatensatz zugeordnet ist Workloads werden in einem SQL Warehouse ausgeführt
instance_pool_id ID des Instanzpools, der dem Verwendungsdatensatz zugeordnet ist Nicht-serverlose Berechnungsressourcennutzung aus Pools, einschließlich Notizbüchern, Jobs, Lakeflow Spark deklarative Pipelines und altes Modell-Serving
node_type Der Instanztyp der Computeressource Nicht serverlose Computenutzung, einschließlich Notizbüchern, Aufträgen, Lakeflow Spark Declarative Pipelines und allen SQL-Lagerhäusern
job_run_id ID des Auftragslaufs, der dem Verwendungsdatensatz zugeordnet ist Serverlose Aufträge und Aufträge, die auf der Auftragsberechnungsinfrastruktur ausgeführt werden (wird nicht für Aufträge aufgefüllt, die auf Universalberechnung laufen)
notebook_id ID des Notizbuchs, das der Verwendung zugeordnet ist Serverlose Notizbücher
dlt_pipeline_id ID der Pipeline, die dem Verwendungsdatensatz zugeordnet ist Lakeflow Spark Declarative Pipelines und Features, die Lakeflow Spark Declarative Pipelines verwenden, z. B. materialisierte Ansichten, Onlinetabellen, Vektorsuchindizierung und Lakeflow Connect
endpoint_name Der Name des Modellbereitstellungsendpunkts oder Vektorsuchendpunkts, der dem Nutzungsdatensatz zugeordnet ist Modellbereitstellung und Vektorsuche
endpoint_id ID des Modellbereitstellungsendpunkts oder Vektorsuchendpunkts, der dem Nutzungsdatensatz zugeordnet ist Modellbereitstellung und Vektorsuche
dlt_update_id ID der Pipelineaktualisierung, die der Verwendungsaufzeichnung zugeordnet ist Lakeflow Spark Declarative Pipelines und Features, die Lakeflow Spark Declarative Pipelines verwenden, z. B. materialisierte Ansichten, Onlinetabellen, Vektorsuchindizierung und Lakeflow Connect
dlt_maintenance_id ID der Pipeline-Wartungsaufgaben, die dem Nutzungsdatensatz zugeordnet sind Lakeflow Spark Declarative Pipelines und Features, die Lakeflow Spark Declarative Pipelines verwenden, z. B. materialisierte Ansichten, Onlinetabellen, Vektorsuchindizierung und Lakeflow Connect
metastore_id Dieser Wert wird in Azure Databricks nicht aufgefüllt. Immer null
run_name Eindeutiger Benutzername der Foundation Model Fine-Tuning-Ausführung, die dem Verwendungsdatensatz zugeordnet ist Optimierung von Basismodellen
job_name Benutzerdefinierter Name des Auftrags, der dem Verwendungsdatensatz zugeordnet ist Aufträge werden auf serverlosem Compute ausgeführt
notebook_path Arbeitsbereichsspeicherpfad des Notebooks, das der Verwendung zugeordnet ist Notizbücher werden auf serverlosem Compute ausgeführt
central_clean_room_id ID des zentralen Reinraums, der dem Verwendungsdatensatz zugeordnet ist Reinräume
source_region Region des Arbeitsbereichs, der der Verwendung zugeordnet ist. Gibt nur einen Wert für serverlose Netzwerknutzung zurück. Serverloses Netzwerk
destination_region Region der Ressource, auf die zugegriffen wird. Gibt nur einen Wert für serverlose Netzwerknutzung zurück. Serverloses Netzwerk
app_id ID der App, die dem Verwendungsdatensatz zugeordnet ist Databricks-Apps
app_name Benutzername der App, die dem Verwendungsdatensatz zugeordnet ist Databricks-Apps
private_endpoint_name Name des anwendbaren privaten Endpunkts, der mit serverloser Berechnung bereitgestellt wird Serverloses Netzwerk
budget_policy_id ID der serverlosen Budgetrichtlinie, die der Workload zugeordnet ist Serverlose Computing-Nutzung, einschließlich Notebooks, Jobs, Lakeflow Spark Declarative Pipelines und Modellbereitstellungsendpunkte
storage_api_type Der Vorgangstyp, der für den Standardspeicher ausgeführt wird. Mögliche Werte sind TIER_1 (PUT, COPY, POST, LIST) und TIER_2 (andere Vorgänge) Standardspeicher
ai_runtime_workload_id ID der serverlosen GPU-Workload, die dem Verwendungsdatensatz zugeordnet ist Serverlose GPU-Workloads
uc_table_catalog Der Name des Unity-Katalogkatalogs, der dem Verwendungsdatensatz zugeordnet ist Materialisierte Ansichten
uc_table_schema Der Name des Unity-Katalogschemas, der dem Verwendungsdatensatz zugeordnet ist Materialisierte Ansichten
uc_table_name Der Name der Unity-Katalogtabelle, der dem Verwendungsdatensatz zugeordnet ist Materialisierte Ansichten
database_instance_id ID der Datenbankinstanz, die dem Verwendungsdatensatz zugeordnet ist Lakebase-Datenbankinstanzen
sharing_materialization_id ID der Freigabematerialisierung, die dem Verwendungsdatensatz zugeordnet ist Anzeigen von Freigaben, materialisierten Ansichten und Streaming-Tabellen mithilfe der Delta-Freigabe
usage_policy_id ID der Verwendungsrichtlinie, die dem Verwendungsdatensatz zugeordnet ist Verwendungsrichtlinien
agent_bricks_id ID der Agent-Bausteine-Arbeitslast, die mit dem Nutzungsprotokoll verbunden ist Agent Bricks-Workloads
base_environment_id ID der Basisumgebung , die der Verwendung zugeordnet ist Verwendung beim Erstellen oder Aktualisieren der serverlosen Basisumgebung eines Arbeitsbereichs. Gefüllt, wenn billing_origin_productBASE_ENVIRONMENTS ist.

Referenz zu Identitätsmetadaten

Die identity_metadata Spalte enthält weitere Informationen zu den Identitäten, die an der Verwendung beteiligt sind.

  • Das run_as Feld protokolliert, wer die Workload ausgeführt hat. Diese Werte werden nur für bestimmte Workloadtypen aufgefüllt, die in der folgenden Tabelle aufgeführt sind.
  • Das owned_by-Feld gilt nur für die Nutzung von SQL-Datenbanken und protokolliert den Benutzer oder Dienstprinzipal, der die SQL-Datenbank besitzt, die für die Nutzung verantwortlich ist.
  • Das created_by Feld gilt für Databricks Apps und Agent Bricks und protokolliert die E-Mail des Benutzers, der die App oder den Agent erstellt hat.

run_as Identitäten

Die in identity_metadata.run_as aufgezeichnete Identität hängt von dem Produkt ab, das der Verwendung zugeordnet ist. Verweisen Sie auf die folgende Tabelle für das identity_metadata.run_as Verhalten:

Workloadtyp Identität von run_as
Berechnen von Aufträgen Der in der Einstellung run_as definierte Benutzer- oder Dienstprinzipal. Standardmäßig werden Aufträge als Identität des Auftragsbesitzers ausgeführt, Administratoren können dies jedoch als einen anderen Benutzer oder Dienstprinzipal ändern.
Serverloses Computing für Aufträge Der in der Einstellung run_as definierte Benutzer- oder Dienstprinzipal. Standardmäßig werden Aufträge als Identität des Auftragsbesitzers ausgeführt, Administratoren können dies jedoch als einen anderen Benutzer oder Dienstprinzipal ändern.
Serverlose Berechnung für Notebooks Der Benutzer, der die Notebookbefehle ausgeführt hat (insbesondere der Benutzer, der die Notebooksitzung erstellt hat). Bei freigegebenen Notebooks umfasst dies die Verwendung anderer Benutzer, die dieselbe Notebooksitzung nutzen.
Lakeflow Spark Declarative Pipelines Der Benutzer- oder Dienstprinzipal, dessen Berechtigungen zum Ausführen der Pipeline verwendet werden. Dies kann durch Übertragung des Besitzes der Pipeline geändert werden.
Optimierung von Basismodellen Der Benutzer oder Dienstprinzipal, der die Trainingsausführung für die Optimierung initiiert hat.
Vorausschauende Optimierung Der Im Besitz von Databricks befindliche Dienstprinzipal, der Vorhersageoptimierungsvorgänge ausführt.
Datenqualitätsüberwachung Der Benutzer, der das Profil erstellt hat.

Datensatztyp-Referenz

Die billing.usage-Tabelle unterstützt Korrekturen. Korrekturen kommen vor, wenn ein Feld des Nutzungsdatensatzes falsch ist und korrigiert werden muss.

Im Fall einer Korrektur fügt Azure Databricks zwei neue Datensätze zur Tabelle hinzu. Ein Rücknahmedatensatz negiert den falschen Originaldatensatz, und dann nimmt ein Neudarstellungsdatensatz die korrigierten Informationen auf. Korrekturdatensätze werden über das record_type-Feld gekennzeichnet:

  • RETRACTION: Dient zum Negieren der ursprünglich falschen Nutzung. Alle Felder sind mit dem ORIGINAL-Datensatz identisch, mit Ausnahme von usage_quantity, einem negativen Wert, der die ursprüngliche Nutzungsmenge aufhebt. Wenn z. B. die Nutzungsmenge des ursprünglichen Datensatzes lautet 259.4356, hätte der Zurückziehen-Datensatz eine Nutzungsmenge von -259.4356.
  • RESTATEMENT: Der Datensatz, der die richtigen Felder und Nutzungsmengen enthält.

Die folgende Abfrage gibt z. B. die richtige stündliche Nutzungsmenge in Bezug auf job_id zurück, auch wenn Korrekturen vorgenommen wurden. Durch das Aggregieren der Nutzungsmenge wird der ursprüngliche Datensatz vom Rücknahmedatensatz negiert, und nur die Werte der Neuartikulierung werden zurückgegeben.

SELECT
  usage_metadata.job_id, usage_start_time, usage_end_time,
  SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0

Note

Bei Korrekturen, bei denen der Original-Nutzungsdatensatz nicht hätte geschrieben werden sollen, kann durch eine Korrektur nur ein Rücknahmedatensatz und kein Neudarstellungsdatensatz hinzugefügt werden.

Produktreferenz für Abrechnungsursprung

Einige Databricks-Produkte werden unter einer gemeinsamen SKU in Rechnung gestellt. Beispielsweise werden Datenqualitätsüberwachung, prädiktive Optimierung und serverlose Workflows unter demselben serverlosen Auftrags-SKU abgerechnet.

Um eine differenzierte Nutzung zu ermöglichen, bieten die Spalten billing_origin_product und product_features zusätzliche Einblicke in das spezielle Produkt und die Features, die mit der Nutzung verbunden sind.

Die Spalte billing_origin_product enthält das Databricks-Produkt an, das dem Verbrauchsdatensatz zugeordnet ist. Hierzu gehören folgende Werte:

Value Description
JOBS Kosten, die mit Arbeitslasten von Lakeflow Jobs verbunden sind
DLT Kosten im Zusammenhang mit Lakeflow Spark Declarative Pipelines-Workloads
SQL Kosten im Zusammenhang mit Databricks SQL, einschließlich Workloads, die in SQL-Warehouses und materialisierten Ansichten ausgeführt werden
ALL_PURPOSE Kosten im Zusammenhang mit klassischem All-Purpose Compute
MODEL_SERVING Kosten im Zusammenhang mit Mosaik AI Model Serving
INTERACTIVE Kosten im Zusammenhang mit serverlosen interaktiven Workloads
DEFAULT_STORAGE Kosten im Zusammenhang mit dem Standardspeicher
VECTOR_SEARCH Kosten im Zusammenhang mit der Vektorsuche
LAKEHOUSE_MONITORING Kosten im Zusammenhang mit der Datenqualitätsüberwachung
PREDICTIVE_OPTIMIZATION Kosten im Zusammenhang mit der Vorhersageoptimierung
ONLINE_TABLES Kosten im Zusammenhang mit Onlinetabellen (Legacy)
FOUNDATION_MODEL_TRAINING Kosten im Zusammenhang mit Foundation-Modell-Feinabstimmung
AGENT_EVALUATION Kosten im Zusammenhang mit der Agentenauswertung
FINE_GRAINED_ACCESS_CONTROL Serverlose Nutzung von feinkörniger Zugriffssteuerung auf dedizierten Rechenressourcen
BASE_ENVIRONMENTS Verwendung im Zusammenhang mit dem Erstellen oder Aktualisieren der serverlosen Basisumgebung eines Arbeitsbereichs
DATA_CLASSIFICATION Kosten im Zusammenhang mit Datenklassifizierungsvorgängen
DATA_QUALITY_MONITORING Kosten im Zusammenhang mit der Datenqualitätsüberwachung, einschließlich Anomalieerkennung und Datenprofilerstellung
AI_GATEWAY Kosten im Zusammenhang mit der AI-Gateway-Nutzung
AI_RUNTIME Kosten für serverlose GPU-Workloads
NETWORKING Kosten, die mit der Verbindung von serverlosem Computing mit Ihren Ressourcen über private Endpunkte entstehen. Für die Verwendung von NETWORKING ist workspace_idnull, usage_unit ist hour, und networking.connectivity_type ist PRIVATE_IP.
APPS Kosten für das Erstellen und Ausführen von Databricks-Apps
DATABASE Kosten für Lakebase-Datenbankinstanzen
AI_FUNCTIONS Kosten im Zusammenhang mit der Nutzung von KI-Funktionen . Dieses Produkt zeichnet nur die Verwendung für die funktion AI_PARSE_DOCUMENT auf.
AGENT_BRICKS Kosten im Zusammenhang mit Agent Bricks-Workloads
CLEAN_ROOM Kosten im Zusammenhang mit Clean Rooms-Workloads
LAKEFLOW_CONNECT Kosten im Zusammenhang mit verwalteten Lakeflow Connect-Konnektoren

Referenz zu Produktfeatures

Die Spalte product_features ist ein Objekt, das Informationen zu den verwendeten Produktfeatures und die folgenden Schlüssel-Wert-Paare enthält:

Feld Description
jobs_tier Zu den Werten gehören LIGHT, CLASSIC oder null
sql_tier Zu den Werten gehören CLASSIC, PRO oder null
dlt_tier Zu den Werten gehören CORE, , PRO, ADVANCEDoder null
is_serverless Zu den Werten gehören true oder false, oder null (der Wert ist true oder false, wenn Sie zwischen serverloser und klassischer Berechnung wählen können, andernfalls ist es null)
is_photon Werte enthalten true oder false oder null
serving_type Zu den Werten gehören MODEL, , GPU_MODEL, FOUNDATION_MODEL, FEATUREoder null
offering_type Werte enthalten BATCH_INFERENCE oder null
performance_target Gibt den Leistungsmodus des serverlosen Auftrags oder der Pipeline an. Zu den Werten gehören PERFORMANCE_OPTIMIZED, STANDARD oder null. Nicht serverlose Workloads haben einen null Wert.
ai_runtime.compute_type Gibt den Rechentyp für serverlos GPU-Workloads oder null
model_serving.offering_type Gibt den Angebotstyp für die Bereitstellung von Modellen an oder null
ai_gateway.feature_type Gibt den Featuretyp für AI-Gateway-Workloads oder null
serverless_gpu.workload_type Gibt den Workloadtyp für serverlose GPU-Compute oder null
ai_functions.ai_function Gibt den KI-Funktionstyp oder null
networking.connectivity_type Werte umfassen PUBLIC_IP und PRIVATE_IP
agent_bricks.problem_type Gibt den Problemtyp für Agent Bricks-Workloads an. Werte enthalten AGENT_BRICKS_KNOWLEDGE_ASSISTANT oder null
agent_bricks.workload_type Gibt den Workloadtyp für Agent Bricks an. Werte enthalten AGENT_BRICKS_REAL_TIME_INFERENCE oder null