Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel bietet eine Übersicht über die Systemtabelle für den abrechenbaren Verbrauch, einschließlich des Schemas und Beispielabfragen. Bei Systemtabellen werden die abrechnungsfähigen Nutzungsdaten Ihres Kontos zentralisiert und an alle Regionen weitergeleitet, sodass Sie die globale Nutzung Ihres Kontos aus der Region anzeigen können, in der sich Ihr Arbeitsbereich befindet.
Informationen zur Verwendung dieser Tabelle zur Überwachung von Kosten und Beispielabfragen finden Sie unter Überwachen von Kosten mithilfe von Systemtabellen.
Tabellenpfad: Diese Systemtabelle befindet sich unter system.billing.usage.
Schema der Tabelle für den abrechenbaren Verbrauch
Die Systemtabelle für den abrechenbaren Verbrauch verwendet das folgende Schema:
| Spaltenname | Datentyp | Description | Example |
|---|---|---|---|
record_id |
string | Eindeutige ID für diesen Verwendungsdatensatz | 11e22ba4-87b9-4cc2-9770-d10b894b7118 |
account_id |
string | ID des Kontos, für das dieser Bericht generiert wurde | 23e22ba4-87b9-4cc2-9770-d10b894b7118 |
workspace_id |
string | ID des Arbeitsbereichs, dem diese Verwendung zugeordnet war | 1234567890123456 |
sku_name |
string | Name der SKU | STANDARD_ALL_PURPOSE_COMPUTE |
cloud |
string | Cloud, die dieser Nutzung zugeordnet ist. Mögliche Werte sind AWS, AZURE und GCP. |
AWS, AZUREoder GCP |
usage_start_time |
timestamp | Die Startzeit, die für diesen Verbrauchsdatensatz relevant ist Zeitzoneninformationen werden am Ende des Werts aufgezeichnet, wobei +00:00 die Zeitzone „UTC“ darstellt. |
2023-01-09 10:00:00.000+00:00 |
usage_end_time |
timestamp | Die Endzeit, die für diesen Verbrauchsdatensatz relevant ist Zeitzoneninformationen werden am Ende des Werts aufgezeichnet, wobei +00:00 die Zeitzone „UTC“ darstellt. |
2023-01-09 11:00:00.000+00:00 |
usage_date |
date | Datum des Verbrauchsdatensatzes, dieses Feld kann für eine schnellere Aggregation nach Datum verwendet werden | 2023-01-01 |
custom_tags |
map | Benutzerdefinierte Tags, die dem Verwendungsdatensatz zugeordnet sind | { “env”: “production” } |
usage_unit |
string | Einheit, in der diese Verwendung gemessen wird | DBU |
usage_quantity |
decimal | Zahl der für diesen Datensatz verbrauchten Einheiten | 259.2958 |
usage_metadata |
struct | Vom System bereitgestellte Metadaten zum Verbrauch, einschließlich IDs für Computeressourcen und Aufträge (falls zutreffend). Siehe Verwendungsmetadaten. | Siehe Nutzungsmetadaten |
identity_metadata |
struct | Vom System bereitgestellte Metadaten zu den Identitäten, die an der Verwendung beteiligt sind. Siehe Identitätsmetadaten. | Siehe Identitätsmetadaten |
record_type |
string | Ob der Datensatz original, ein Zurückziehen oder eine Neuformulierung ist. Der Wert ist ORIGINAL, es sei denn, der Datensatz bezieht sich auf eine Korrektur. Siehe Datensatztyp. |
ORIGINAL |
ingestion_date |
date | Datum, an dem der Datensatz in die usage Tabelle aufgenommen wurde |
2024-01-01 |
billing_origin_product |
string | Das Produkt, das den Verbrauch ausgelöst hat. Einige Produkte können als unterschiedliche SKUs in Rechnung gestellt werden. Mögliche Werte finden Sie unter "Produkt". | JOBS |
product_features |
struct | Details zu den spezifischen verwendeten Produktfeatures. Siehe Produktfeatures. | Produkteigenschaften anzeigen |
usage_type |
string | Der Nutzungstyp, der dem Produkt oder der Arbeitslast für Abrechnungszwecke zugeordnet ist. Mögliche Werte sind COMPUTE_TIME, , STORAGE_SPACE, NETWORK_BYTE, NETWORK_HOURAPI_OPERATION, , TOKEN, oder GPU_TIMEANSWER. |
STORAGE_SPACE |
Referenz zu Verbrauchsmetadaten
Die Werte in usage_metadata sind Zeichenfolgen, die Informationen über die im Verwendungsdatensatz enthaltenen Arbeitsbereichsobjekte und Ressourcen liefern.
Je nach verwendetem Berechnungstyp und den verwendeten Features wird nur eine Teilmenge dieser Werte in einem bestimmten Verwendungsdatensatz aufgefüllt. Die dritte Spalte in der Tabelle zeigt, welche Verwendungstypen bewirken, dass jeder Wert aufgefüllt wird.
| Value | Description | Aufgefüllt für (andernfalls null) |
|---|---|---|
cluster_id |
ID des Clusters, der dem Verwendungsdatensatz zugeordnet ist | Nicht-serverlose Computenutzung, einschließlich Notizbüchern, Aufgaben, Lakeflow Spark Deklarative Pipelines und Legacy-Modellbereitstellung |
job_id |
ID des Auftrags, der dem Verwendungsdatensatz zugeordnet ist | Serverlose Aufträge und Aufträge, die auf der Auftragsberechnungsinfrastruktur ausgeführt werden (wird nicht für Aufträge aufgefüllt, die auf Universalberechnung laufen) |
warehouse_id |
ID des SQL-Warehouses, das dem Nutzungsdatensatz zugeordnet ist | Workloads werden in einem SQL Warehouse ausgeführt |
instance_pool_id |
ID des Instanzpools, der dem Verwendungsdatensatz zugeordnet ist | Nicht-serverlose Berechnungsressourcennutzung aus Pools, einschließlich Notizbüchern, Jobs, Lakeflow Spark deklarative Pipelines und altes Modell-Serving |
node_type |
Der Instanztyp der Computeressource | Nicht serverlose Computenutzung, einschließlich Notizbüchern, Aufträgen, Lakeflow Spark Declarative Pipelines und allen SQL-Lagerhäusern |
job_run_id |
ID des Auftragslaufs, der dem Verwendungsdatensatz zugeordnet ist | Serverlose Aufträge und Aufträge, die auf der Auftragsberechnungsinfrastruktur ausgeführt werden (wird nicht für Aufträge aufgefüllt, die auf Universalberechnung laufen) |
notebook_id |
ID des Notizbuchs, das der Verwendung zugeordnet ist | Serverlose Notizbücher |
dlt_pipeline_id |
ID der Pipeline, die dem Verwendungsdatensatz zugeordnet ist | Lakeflow Spark Declarative Pipelines und Features, die Lakeflow Spark Declarative Pipelines verwenden, z. B. materialisierte Ansichten, Onlinetabellen, Vektorsuchindizierung und Lakeflow Connect |
endpoint_name |
Der Name des Modellbereitstellungsendpunkts oder Vektorsuchendpunkts, der dem Nutzungsdatensatz zugeordnet ist | Modellbereitstellung und Vektorsuche |
endpoint_id |
ID des Modellbereitstellungsendpunkts oder Vektorsuchendpunkts, der dem Nutzungsdatensatz zugeordnet ist | Modellbereitstellung und Vektorsuche |
dlt_update_id |
ID der Pipelineaktualisierung, die der Verwendungsaufzeichnung zugeordnet ist | Lakeflow Spark Declarative Pipelines und Features, die Lakeflow Spark Declarative Pipelines verwenden, z. B. materialisierte Ansichten, Onlinetabellen, Vektorsuchindizierung und Lakeflow Connect |
dlt_maintenance_id |
ID der Pipeline-Wartungsaufgaben, die dem Nutzungsdatensatz zugeordnet sind | Lakeflow Spark Declarative Pipelines und Features, die Lakeflow Spark Declarative Pipelines verwenden, z. B. materialisierte Ansichten, Onlinetabellen, Vektorsuchindizierung und Lakeflow Connect |
metastore_id |
Dieser Wert wird in Azure Databricks nicht aufgefüllt. | Immer null |
run_name |
Eindeutiger Benutzername der Foundation Model Fine-Tuning-Ausführung, die dem Verwendungsdatensatz zugeordnet ist | Optimierung von Basismodellen |
job_name |
Benutzerdefinierter Name des Auftrags, der dem Verwendungsdatensatz zugeordnet ist | Aufträge werden auf serverlosem Compute ausgeführt |
notebook_path |
Arbeitsbereichsspeicherpfad des Notebooks, das der Verwendung zugeordnet ist | Notizbücher werden auf serverlosem Compute ausgeführt |
central_clean_room_id |
ID des zentralen Reinraums, der dem Verwendungsdatensatz zugeordnet ist | Reinräume |
source_region |
Region des Arbeitsbereichs, der der Verwendung zugeordnet ist. Gibt nur einen Wert für serverlose Netzwerknutzung zurück. | Serverloses Netzwerk |
destination_region |
Region der Ressource, auf die zugegriffen wird. Gibt nur einen Wert für serverlose Netzwerknutzung zurück. | Serverloses Netzwerk |
app_id |
ID der App, die dem Verwendungsdatensatz zugeordnet ist | Databricks-Apps |
app_name |
Benutzername der App, die dem Verwendungsdatensatz zugeordnet ist | Databricks-Apps |
private_endpoint_name |
Name des anwendbaren privaten Endpunkts, der mit serverloser Berechnung bereitgestellt wird | Serverloses Netzwerk |
budget_policy_id |
ID der serverlosen Budgetrichtlinie, die der Workload zugeordnet ist | Serverlose Computing-Nutzung, einschließlich Notebooks, Jobs, Lakeflow Spark Declarative Pipelines und Modellbereitstellungsendpunkte |
storage_api_type |
Der Vorgangstyp, der für den Standardspeicher ausgeführt wird. Mögliche Werte sind TIER_1 (PUT, COPY, POST, LIST) und TIER_2 (andere Vorgänge) |
Standardspeicher |
ai_runtime_workload_id |
ID der serverlosen GPU-Workload, die dem Verwendungsdatensatz zugeordnet ist | Serverlose GPU-Workloads |
uc_table_catalog |
Der Name des Unity-Katalogkatalogs, der dem Verwendungsdatensatz zugeordnet ist | Materialisierte Ansichten |
uc_table_schema |
Der Name des Unity-Katalogschemas, der dem Verwendungsdatensatz zugeordnet ist | Materialisierte Ansichten |
uc_table_name |
Der Name der Unity-Katalogtabelle, der dem Verwendungsdatensatz zugeordnet ist | Materialisierte Ansichten |
database_instance_id |
ID der Datenbankinstanz, die dem Verwendungsdatensatz zugeordnet ist | Lakebase-Datenbankinstanzen |
sharing_materialization_id |
ID der Freigabematerialisierung, die dem Verwendungsdatensatz zugeordnet ist | Anzeigen von Freigaben, materialisierten Ansichten und Streaming-Tabellen mithilfe der Delta-Freigabe |
usage_policy_id |
ID der Verwendungsrichtlinie, die dem Verwendungsdatensatz zugeordnet ist | Verwendungsrichtlinien |
agent_bricks_id |
ID der Agent-Bausteine-Arbeitslast, die mit dem Nutzungsprotokoll verbunden ist | Agent Bricks-Workloads |
base_environment_id |
ID der Basisumgebung , die der Verwendung zugeordnet ist | Verwendung beim Erstellen oder Aktualisieren der serverlosen Basisumgebung eines Arbeitsbereichs. Gefüllt, wenn billing_origin_productBASE_ENVIRONMENTS ist. |
Referenz zu Identitätsmetadaten
Die identity_metadata Spalte enthält weitere Informationen zu den Identitäten, die an der Verwendung beteiligt sind.
- Das
run_asFeld protokolliert, wer die Workload ausgeführt hat. Diese Werte werden nur für bestimmte Workloadtypen aufgefüllt, die in der folgenden Tabelle aufgeführt sind. - Das
owned_by-Feld gilt nur für die Nutzung von SQL-Datenbanken und protokolliert den Benutzer oder Dienstprinzipal, der die SQL-Datenbank besitzt, die für die Nutzung verantwortlich ist.
- Das
created_byFeld gilt für Databricks Apps und Agent Bricks und protokolliert die E-Mail des Benutzers, der die App oder den Agent erstellt hat.
run_as Identitäten
Die in identity_metadata.run_as aufgezeichnete Identität hängt von dem Produkt ab, das der Verwendung zugeordnet ist. Verweisen Sie auf die folgende Tabelle für das identity_metadata.run_as Verhalten:
| Workloadtyp | Identität von run_as |
|---|---|
| Berechnen von Aufträgen | Der in der Einstellung run_as definierte Benutzer- oder Dienstprinzipal. Standardmäßig werden Aufträge als Identität des Auftragsbesitzers ausgeführt, Administratoren können dies jedoch als einen anderen Benutzer oder Dienstprinzipal ändern. |
| Serverloses Computing für Aufträge | Der in der Einstellung run_as definierte Benutzer- oder Dienstprinzipal. Standardmäßig werden Aufträge als Identität des Auftragsbesitzers ausgeführt, Administratoren können dies jedoch als einen anderen Benutzer oder Dienstprinzipal ändern. |
| Serverlose Berechnung für Notebooks | Der Benutzer, der die Notebookbefehle ausgeführt hat (insbesondere der Benutzer, der die Notebooksitzung erstellt hat). Bei freigegebenen Notebooks umfasst dies die Verwendung anderer Benutzer, die dieselbe Notebooksitzung nutzen. |
| Lakeflow Spark Declarative Pipelines | Der Benutzer- oder Dienstprinzipal, dessen Berechtigungen zum Ausführen der Pipeline verwendet werden. Dies kann durch Übertragung des Besitzes der Pipeline geändert werden. |
| Optimierung von Basismodellen | Der Benutzer oder Dienstprinzipal, der die Trainingsausführung für die Optimierung initiiert hat. |
| Vorausschauende Optimierung | Der Im Besitz von Databricks befindliche Dienstprinzipal, der Vorhersageoptimierungsvorgänge ausführt. |
| Datenqualitätsüberwachung | Der Benutzer, der das Profil erstellt hat. |
Datensatztyp-Referenz
Die billing.usage-Tabelle unterstützt Korrekturen. Korrekturen kommen vor, wenn ein Feld des Nutzungsdatensatzes falsch ist und korrigiert werden muss.
Im Fall einer Korrektur fügt Azure Databricks zwei neue Datensätze zur Tabelle hinzu. Ein Rücknahmedatensatz negiert den falschen Originaldatensatz, und dann nimmt ein Neudarstellungsdatensatz die korrigierten Informationen auf. Korrekturdatensätze werden über das record_type-Feld gekennzeichnet:
-
RETRACTION: Dient zum Negieren der ursprünglich falschen Nutzung. Alle Felder sind mit demORIGINAL-Datensatz identisch, mit Ausnahme vonusage_quantity, einem negativen Wert, der die ursprüngliche Nutzungsmenge aufhebt. Wenn z. B. die Nutzungsmenge des ursprünglichen Datensatzes lautet259.4356, hätte der Zurückziehen-Datensatz eine Nutzungsmenge von-259.4356. -
RESTATEMENT: Der Datensatz, der die richtigen Felder und Nutzungsmengen enthält.
Die folgende Abfrage gibt z. B. die richtige stündliche Nutzungsmenge in Bezug auf job_id zurück, auch wenn Korrekturen vorgenommen wurden. Durch das Aggregieren der Nutzungsmenge wird der ursprüngliche Datensatz vom Rücknahmedatensatz negiert, und nur die Werte der Neuartikulierung werden zurückgegeben.
SELECT
usage_metadata.job_id, usage_start_time, usage_end_time,
SUM(usage_quantity) as usage_quantity
FROM system.billing.usage
GROUP BY ALL
HAVING usage_quantity != 0
Note
Bei Korrekturen, bei denen der Original-Nutzungsdatensatz nicht hätte geschrieben werden sollen, kann durch eine Korrektur nur ein Rücknahmedatensatz und kein Neudarstellungsdatensatz hinzugefügt werden.
Produktreferenz für Abrechnungsursprung
Einige Databricks-Produkte werden unter einer gemeinsamen SKU in Rechnung gestellt. Beispielsweise werden Datenqualitätsüberwachung, prädiktive Optimierung und serverlose Workflows unter demselben serverlosen Auftrags-SKU abgerechnet.
Um eine differenzierte Nutzung zu ermöglichen, bieten die Spalten billing_origin_product und product_features zusätzliche Einblicke in das spezielle Produkt und die Features, die mit der Nutzung verbunden sind.
Die Spalte billing_origin_product enthält das Databricks-Produkt an, das dem Verbrauchsdatensatz zugeordnet ist. Hierzu gehören folgende Werte:
| Value | Description |
|---|---|
JOBS |
Kosten, die mit Arbeitslasten von Lakeflow Jobs verbunden sind |
DLT |
Kosten im Zusammenhang mit Lakeflow Spark Declarative Pipelines-Workloads |
SQL |
Kosten im Zusammenhang mit Databricks SQL, einschließlich Workloads, die in SQL-Warehouses und materialisierten Ansichten ausgeführt werden |
ALL_PURPOSE |
Kosten im Zusammenhang mit klassischem All-Purpose Compute |
MODEL_SERVING |
Kosten im Zusammenhang mit Mosaik AI Model Serving |
INTERACTIVE |
Kosten im Zusammenhang mit serverlosen interaktiven Workloads |
DEFAULT_STORAGE |
Kosten im Zusammenhang mit dem Standardspeicher |
VECTOR_SEARCH |
Kosten im Zusammenhang mit der Vektorsuche |
LAKEHOUSE_MONITORING |
Kosten im Zusammenhang mit der Datenqualitätsüberwachung |
PREDICTIVE_OPTIMIZATION |
Kosten im Zusammenhang mit der Vorhersageoptimierung |
ONLINE_TABLES |
Kosten im Zusammenhang mit Onlinetabellen (Legacy) |
FOUNDATION_MODEL_TRAINING |
Kosten im Zusammenhang mit Foundation-Modell-Feinabstimmung |
AGENT_EVALUATION |
Kosten im Zusammenhang mit der Agentenauswertung |
FINE_GRAINED_ACCESS_CONTROL |
Serverlose Nutzung von feinkörniger Zugriffssteuerung auf dedizierten Rechenressourcen |
BASE_ENVIRONMENTS |
Verwendung im Zusammenhang mit dem Erstellen oder Aktualisieren der serverlosen Basisumgebung eines Arbeitsbereichs |
DATA_CLASSIFICATION |
Kosten im Zusammenhang mit Datenklassifizierungsvorgängen |
DATA_QUALITY_MONITORING |
Kosten im Zusammenhang mit der Datenqualitätsüberwachung, einschließlich Anomalieerkennung und Datenprofilerstellung |
AI_GATEWAY |
Kosten im Zusammenhang mit der AI-Gateway-Nutzung |
AI_RUNTIME |
Kosten für serverlose GPU-Workloads |
NETWORKING |
Kosten, die mit der Verbindung von serverlosem Computing mit Ihren Ressourcen über private Endpunkte entstehen. Für die Verwendung von NETWORKING ist workspace_idnull, usage_unit ist hour, und networking.connectivity_type ist PRIVATE_IP. |
APPS |
Kosten für das Erstellen und Ausführen von Databricks-Apps |
DATABASE |
Kosten für Lakebase-Datenbankinstanzen |
AI_FUNCTIONS |
Kosten im Zusammenhang mit der Nutzung von KI-Funktionen . Dieses Produkt zeichnet nur die Verwendung für die funktion AI_PARSE_DOCUMENT auf. |
AGENT_BRICKS |
Kosten im Zusammenhang mit Agent Bricks-Workloads |
CLEAN_ROOM |
Kosten im Zusammenhang mit Clean Rooms-Workloads |
LAKEFLOW_CONNECT |
Kosten im Zusammenhang mit verwalteten Lakeflow Connect-Konnektoren |
Referenz zu Produktfeatures
Die Spalte product_features ist ein Objekt, das Informationen zu den verwendeten Produktfeatures und die folgenden Schlüssel-Wert-Paare enthält:
| Feld | Description |
|---|---|
jobs_tier |
Zu den Werten gehören LIGHT, CLASSIC oder null |
sql_tier |
Zu den Werten gehören CLASSIC, PRO oder null |
dlt_tier |
Zu den Werten gehören CORE, , PRO, ADVANCEDoder null |
is_serverless |
Zu den Werten gehören true oder false, oder null (der Wert ist true oder false, wenn Sie zwischen serverloser und klassischer Berechnung wählen können, andernfalls ist es null) |
is_photon |
Werte enthalten true oder false oder null |
serving_type |
Zu den Werten gehören MODEL, , GPU_MODEL, FOUNDATION_MODEL, FEATUREoder null |
offering_type |
Werte enthalten BATCH_INFERENCE oder null |
performance_target |
Gibt den Leistungsmodus des serverlosen Auftrags oder der Pipeline an. Zu den Werten gehören PERFORMANCE_OPTIMIZED, STANDARD oder null. Nicht serverlose Workloads haben einen null Wert. |
ai_runtime.compute_type |
Gibt den Rechentyp für serverlos GPU-Workloads oder null |
model_serving.offering_type |
Gibt den Angebotstyp für die Bereitstellung von Modellen an oder null |
ai_gateway.feature_type |
Gibt den Featuretyp für AI-Gateway-Workloads oder null |
serverless_gpu.workload_type |
Gibt den Workloadtyp für serverlose GPU-Compute oder null |
ai_functions.ai_function |
Gibt den KI-Funktionstyp oder null |
networking.connectivity_type |
Werte umfassen PUBLIC_IP und PRIVATE_IP |
agent_bricks.problem_type |
Gibt den Problemtyp für Agent Bricks-Workloads an. Werte enthalten AGENT_BRICKS_KNOWLEDGE_ASSISTANT oder null |
agent_bricks.workload_type |
Gibt den Workloadtyp für Agent Bricks an. Werte enthalten AGENT_BRICKS_REAL_TIME_INFERENCE oder null |