AutoMLRun Klasse
Stellt ein automatisiertes ML-Experiment dar, das in Azure Machine Learning ausgeführt wird.
Die AutoMLRun-Klasse kann zum Verwalten einer Ausführung, zum Überprüfen des Ausführungsstatus und zum Abrufen von Ausführungsdetails verwendet werden, nachdem eine AutoML-Ausführung übermittelt wurde. Weitere Informationen zum Arbeiten mit Experimentläufen finden Sie in der Run Klasse.
Initialisieren sie eine AutoML-Ausführung.
Konstruktor
AutoMLRun(experiment, run_id, **kwargs)
Parameter
| Name | Beschreibung |
|---|---|
|
experiment
Erforderlich
|
Das Experiment, das der Ausführung zugeordnet ist. |
|
run_id
Erforderlich
|
Die ID der Ausführung. |
|
experiment
Erforderlich
|
Das Experiment, das der Ausführung zugeordnet ist. |
|
run_id
Erforderlich
|
Die ID der Ausführung. |
Hinweise
Ein AutoMLRun-Objekt wird zurückgegeben, wenn Sie die submit Methode eines Experiments verwenden.
Verwenden Sie den folgenden Code, um eine bereits gestartete Ausführung abzurufen:
from azureml.train.automl.run import AutoMLRun
ws = Workspace.from_config()
experiment = ws.experiments['my-experiment-name']
automl_run = AutoMLRun(experiment, run_id = 'AutoML_9fe201fe-89fd-41cc-905f-2f41a5a98883')
Methoden
| cancel |
Abbrechen einer AutoML-Ausführung. Gibt True zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde. |
| cancel_iteration |
Abbrechen einer bestimmten untergeordneten Ausführung. |
| complete |
Schließen Sie eine AutoML-Ausführung ab. |
| continue_experiment |
Setzen Sie ein vorhandenes AutoML-Experiment fort. |
| fail |
Fehler bei der AutoML-Ausführung. Legen Sie optional die Error-Eigenschaft der Ausführung mit einer Nachricht oder Ausnahme fest, die an |
| get_best_child |
Gibt die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück. |
| get_guardrails |
Drucken und Zurückgeben detaillierter Ergebnisse aus der Ausführung der Guardrail-Überprüfung. |
| get_output |
Gibt die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde. Wenn keine Eingabeparameter angegeben werden, |
| get_run_sdk_dependencies |
Rufen Sie die SDK-Runabhängigkeiten für eine bestimmte Ausführung ab. |
| pause |
Gibt True zurück, wenn die AutoML-Ausführung erfolgreich angehalten wurde. Diese Methode ist nicht implementiert. |
| register_model |
Registrieren Sie das Modell beim AzureML ACI-Dienst. |
| resume |
Gibt True zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde. Diese Methode ist nicht implementiert. |
| retry |
Gibt True zurück, wenn die AutoML-Ausführung erfolgreich wiederholt wurde. Diese Methode ist nicht implementiert. |
| summary |
Dient zum Abrufen einer Tabelle mit einer Zusammenfassung der versuchten Algorithmen und deren Bewertungen. |
| wait_for_completion |
Warten Sie auf den Abschluss dieser Ausführung. Gibt das Statusobjekt nach der Wartezeit zurück. |
cancel
Abbrechen einer AutoML-Ausführung.
Gibt True zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde.
cancel()
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Nichts |
cancel_iteration
Abbrechen einer bestimmten untergeordneten Ausführung.
cancel_iteration(iteration)
Parameter
| Name | Beschreibung |
|---|---|
|
iteration
Erforderlich
|
Die iteration, die abgebrochen werden soll. |
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Nichts |
complete
Schließen Sie eine AutoML-Ausführung ab.
complete(**kwargs)
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Nichts |
continue_experiment
Setzen Sie ein vorhandenes AutoML-Experiment fort.
continue_experiment(X=None, y=None, sample_weight=None, X_valid=None, y_valid=None, sample_weight_valid=None, data=None, label=None, columns=None, cv_splits_indices=None, spark_context=None, experiment_timeout_hours=None, experiment_exit_score=None, iterations=None, show_output=False, training_data=None, validation_data=None, **kwargs)
Parameter
| Name | Beschreibung |
|---|---|
|
X
|
Schulungsfeatures. Standardwert: None
|
|
y
|
Schulungsbezeichnungen. Standardwert: None
|
|
sample_weight
|
Beispielgewichte für Schulungsdaten. Standardwert: None
|
|
X_valid
|
Überprüfungsfeatures. Standardwert: None
|
|
y_valid
|
Überprüfungsbezeichnungen. Standardwert: None
|
|
sample_weight_valid
|
Beispielgewichtungen für Validierungssätze. Standardwert: None
|
|
data
|
Schulungsfeatures und Bezeichnungen. Standardwert: None
|
|
label
|
Beschriftungsspalte in Daten. Standardwert: None
|
|
columns
|
Eine Liste der zulässigen Spalten in den Daten, die als Features verwendet werden sollen. Standardwert: None
|
|
cv_splits_indices
|
Indizes, bei denen Schulungsdaten für die Kreuzüberprüfung aufgeteilt werden sollen. Jede Zeile ist eine separate Kreuzfaltung und innerhalb jedes Kreuzes, stellen 2 Arrays bereit, die erste mit den Indizes für Schulungsdaten und die zweite mit den Indizes, die für Validierungsdaten verwendet werden sollen. d.h. [[t1, v1], [t2, v2], ...] wobei t1 die Trainingsindizes für die erste Kreuzfalte ist und v1 die Validierungsindizes für die erste Kreuzfaltung ist. Standardwert: None
|
|
spark_context
|
<xref:SparkContext>
Spark-Kontext gilt nur, wenn er in azure databricks/spark-Umgebung verwendet wird. Standardwert: None
|
|
experiment_timeout_hours
|
Für wie viele zusätzliche Stunden dieses Experiments ausgeführt werden soll. Standardwert: None
|
|
experiment_exit_score
|
Wenn angegeben, wird angegeben, dass das Experiment beendet wird, wenn dieser Wert erreicht ist. Standardwert: None
|
|
iterations
|
Wie viele zusätzliche Iterationen für dieses Experiment ausgeführt werden sollen. Standardwert: None
|
|
show_output
|
Flag, das angibt, ob die Ausgabe in der Konsole gedruckt werden soll. Standardwert: False
|
|
training_data
|
<xref:azureml.dataprep.Dataflow> oder
DataFrame
Geben Sie Schulungsdaten ein. Standardwert: None
|
|
validation_data
|
<xref:azureml.dataprep.Dataflow> oder
DataFrame
Überprüfungsdaten. Standardwert: None
|
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Die übergeordnete AutoML-Ausführung. |
Ausnahmen
| Typ | Beschreibung |
|---|---|
fail
Fehler bei der AutoML-Ausführung.
Legen Sie optional die Error-Eigenschaft der Ausführung mit einer Nachricht oder Ausnahme fest, die an error_details.
fail(error_details=None, error_code=None, _set_status=True, **kwargs)
Parameter
| Name | Beschreibung |
|---|---|
|
error_details
|
str oder
BaseException
Optionale Details des Fehlers. Standardwert: None
|
|
error_code
|
Optionaler Fehlercode des Fehlers für die Fehlerklassifizierung. Standardwert: None
|
|
_set_status
|
Gibt an, ob das Statusereignis zur Nachverfolgung gesendet werden soll. Standardwert: True
|
get_best_child
Gibt die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück.
get_best_child(metric: str | None = None, onnx_compatible: bool = False, **kwargs: Any) -> Run
Parameter
| Name | Beschreibung |
|---|---|
|
metric
|
Die Metrik, die verwendet werden soll, wenn Sie die beste Ausführung auswählen, die zurückgegeben werden soll. Standardmäßig wird die primäre Metrik verwendet. Standardwert: None
|
|
onnx_compatible
|
Gibt nur Ausführungsläufe zurück, die onnx-Modelle generiert haben. Standardwert: False
|
|
kwargs
Erforderlich
|
|
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
AutoML-Untergeordnete Ausführung. |
get_guardrails
Drucken und Zurückgeben detaillierter Ergebnisse aus der Ausführung der Guardrail-Überprüfung.
get_guardrails(to_console: bool = True) -> Dict[str, Any]
Parameter
| Name | Beschreibung |
|---|---|
|
to_console
|
Gibt an, ob die Überprüfungsergebnisse in die Konsole geschrieben werden sollen. Standardwert: True
|
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Ein Wörterbuch mit Prüfergebnissen. |
Ausnahmen
| Typ | Beschreibung |
|---|---|
get_output
Gibt die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde.
Wenn keine Eingabeparameter angegeben werden, get_output wird die beste Pipeline gemäß der primären Metrik zurückgegeben. Alternativ können Sie entweder den Parameter oder iteration den metric Parameter verwenden, um eine bestimmte Iteration oder die beste Ausführung pro bereitgestellter Metrik abzurufen.
get_output(iteration: int | None = None, metric: str | None = None, return_onnx_model: bool = False, return_split_onnx_model: SplitOnnxModelName | None = None, **kwargs: Any) -> Tuple[Run, Any]
Parameter
| Name | Beschreibung |
|---|---|
|
iteration
|
Die Iterationsnummer des entsprechenden Lauf- und Einbaumodells, das zurückgegeben werden soll. Standardwert: None
|
|
metric
|
Die Metrik, die verwendet werden soll, wenn Sie den besten Lauf und das passende Modell auswählen, das zurückgegeben werden soll. Standardwert: None
|
|
return_onnx_model
|
Diese Methode gibt das konvertierte ONNX-Modell zurück, wenn der Standardwert: False
|
|
return_split_onnx_model
|
Der Typ des geteilten Onnx-Modells, das zurückgegeben werden soll Standardwert: None
|
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Run, <xref:Model>
|
Der Lauf, das entsprechende Einbaumodell. |
Ausnahmen
| Typ | Beschreibung |
|---|---|
Hinweise
Wenn Sie die verwendeten Präprozessoren und den verwendeten Algorithmus (Schätzwert) prüfen möchten, können Sie dies durch Model.steps, ähnlich wie sklearn.pipeline.Pipeline.steps.
Der folgende Code zeigt beispielsweise, wie der Schätzer abgerufen wird.
best_run, model = parent_run.get_output()
estimator = model.steps[-1]
get_run_sdk_dependencies
Rufen Sie die SDK-Runabhängigkeiten für eine bestimmte Ausführung ab.
get_run_sdk_dependencies(iteration=None, check_versions=True, **kwargs)
Parameter
| Name | Beschreibung |
|---|---|
|
iteration
|
Die Iterationsnummer des abzurufenden Laufs. Wenn keine, rufen Sie die übergeordnete Umgebung ab. Standardwert: None
|
|
check_versions
|
Wenn True, überprüfen Sie die Versionen mit der aktuellen Umgebung. Wenn False, übergeben Sie den Wert. Standardwert: True
|
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Das Wörterbuch der Abhängigkeiten, die aus RunHistory abgerufen wurden. |
Ausnahmen
| Typ | Beschreibung |
|---|---|
pause
Gibt True zurück, wenn die AutoML-Ausführung erfolgreich angehalten wurde.
Diese Methode ist nicht implementiert.
pause()
Ausnahmen
| Typ | Beschreibung |
|---|---|
register_model
Registrieren Sie das Modell beim AzureML ACI-Dienst.
register_model(model_name=None, description=None, tags=None, iteration=None, metric=None)
Parameter
| Name | Beschreibung |
|---|---|
|
model_name
|
Der Name des bereitgestellten Modells. Standardwert: None
|
|
description
|
Die Beschreibung des bereitgestellten Modells. Standardwert: None
|
|
tags
|
Tags für das bereitgestellte Modell. Standardwert: None
|
|
iteration
|
Überschreiben, für welches Modell bereitgestellt werden soll. Stellt das Modell für eine bestimmte Iteration bereit. Standardwert: None
|
|
metric
|
Überschreiben, für welches Modell bereitgestellt werden soll. Stellt das beste Modell für eine andere Metrik bereit. Standardwert: None
|
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
<xref:Model>
|
Das registrierte Modellobjekt. |
resume
Gibt True zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde.
Diese Methode ist nicht implementiert.
resume()
Ausnahmen
| Typ | Beschreibung |
|---|---|
|
NotImplementedError:
|
retry
Gibt True zurück, wenn die AutoML-Ausführung erfolgreich wiederholt wurde.
Diese Methode ist nicht implementiert.
retry()
Ausnahmen
| Typ | Beschreibung |
|---|---|
summary
Dient zum Abrufen einer Tabelle mit einer Zusammenfassung der versuchten Algorithmen und deren Bewertungen.
summary()
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Pandas DataFrame mit AutoML-Modellstatistiken. |
wait_for_completion
Warten Sie auf den Abschluss dieser Ausführung.
Gibt das Statusobjekt nach der Wartezeit zurück.
wait_for_completion(show_output=False, wait_post_processing=False)
Parameter
| Name | Beschreibung |
|---|---|
|
show_output
|
Gibt an, ob die Ausführungsausgabe auf sys.stdout angezeigt werden soll. Standardwert: False
|
|
wait_post_processing
|
Gibt an, ob nach Abschluss der Ausführung auf die Nachbearbeitung gewartet werden soll. Standardwert: False
|
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Das Statusobjekt. |
Ausnahmen
| Typ | Beschreibung |
|---|---|
Attribute
run_id
Gibt die Ausführungs-ID der aktuellen Ausführung zurück.
Gibt zurück
| Typ | Beschreibung |
|---|---|
|
Die Ausführungs-ID der aktuellen Ausführung. |