

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# BlazingText Hyperparameter
<a name="blazingtext_hyperparameters"></a>

Wenn Sie einen Trainingsauftrag mit einer `CreateTrainingJob` Anforderung beginnen, geben Sie einen Trainingsalgorithmus an. Sie können auch algorithmusspezifische Hyperparameter als Maps angeben. string-to-string Die Hyperparameter für den BlazingText Algorithmus hängen davon ab, welchen Modus Sie verwenden: Word2Vec (unbeaufsichtigt) und Textklassifikation (überwacht).

## Word2Vec-Hyperparameter
<a name="blazingtext_hyperparameters_word2vec"></a>

In der folgenden Tabelle sind die Hyperparameter für den BlazingText Word2Vec-Trainingsalgorhythmus aufgeführt, der von Amazon AI bereitgestellt wird. SageMaker 


| Name des Parameters | Description | 
| --- | --- | 
| mode |  Die für das Training verwendete Word2vec-Architektur. **Erforderlich** Gültige Werte: `batch_skipgram`, `skipgram` oder `cbow`  | 
| batch\$1size |  Die Größe jedes Stapels, wenn `mode` auf `batch_skipgram` festgelegt ist. Festgelegt auf eine Zahl zwischen 10 und 20. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 11  | 
| buckets |  Die Anzahl von Hash-Buckets für Teilwörter. **Optional** Gültige Werte: positive Ganzzahl Standardwert: 2000000  | 
| epochs |  Die Anzahl von abgeschlossenen Durchläufe durch das Trainingsdaten. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 5  | 
| evaluation |  [Ob das trainierte Modell mit dem -353-Test bewertet wird. WordSimilarity](http://www.gabrilovich.com/resources/data/wordsim353/wordsim353.html) **Optional** Gültige Werte: (Boolescher Wert) `True` oder `False` Standardwert: `True`  | 
| learning\$1rate |  Die für Parameteraktualisierungen verwendete Schrittgröße. **Optional** Gültige Werte: Positive Gleitkommazahl Standardwert: 0.05  | 
| min\$1char |  Die Mindestanzahl der Zeichen für N-Gramm-Zeichen/Teilwörter. **Optional** Gültige Werte: positive Ganzzahl Standardwert: 3  | 
| min\$1count |  Wörter, die weniger als `min_count`-mal angezeigt werden, werden verworfen. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 5  | 
| max\$1char |  Die Höchstanzahl der Zeichen für N-Gramm-Zeichen/Teilwörter. **Optional** Gültige Werte: positive Ganzzahl Standardwert: 6  | 
| negative\$1samples |  Die Anzahl der negativen Beispiele für die Strategie des Austauschs von Negativbeispielen. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 5  | 
| sampling\$1threshold |  Der Schwellenwert für die Häufigkeit von Wörtern. Wörter, die mit höheren Frequenz in den Trainingsdaten erscheinen, werden nach dem Zufallsprinzip heruntergesampelt. **Optional** Gültige Werte: Positive Bruchzahl. Der empfohlene Bereich ist (0, 1e-3] Standardwert: 0.0001  | 
| subwords |  Gibt an, ob Teilworteinbettungen zu lernen sind oder nicht. **Optional** Gültige Werte: (Boolescher Wert) `True` oder `False` Standardwert: `False`  | 
| vector\$1dim |  Die Dimension der Wortvektoren, die der Algorithmus lernt. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 100  | 
| window\$1size |  Die Größe des Kontextfensters. Das Kontextfenster ist die Anzahl der Wörter, die das für das Training verwendete Zielwort umgeben. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 5  | 

## Textklassifizierungs-Hyperparameter
<a name="blazingtext_hyperparameters_text_class"></a>

In der folgenden Tabelle sind die Hyperparameter für den von Amazon SageMaker AI bereitgestellten Schulungsalgorithmus für die Textklassifizierung aufgeführt.

**Anmerkung**  
Auch wenn einige der Parameter in den Textklassifizierungs- und Word2Vec-Modi gängig sind, haben sie möglicherweise je nach Kontext unterschiedliche Bedeutungen.


| Name des Parameters | Description | 
| --- | --- | 
| mode |  Der Trainingsmodus **Erforderlich** Zulässige Werte: `supervised`  | 
| buckets |  Die Anzahl der Hash-Buckets für N-Gramm-Wörter. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 2000000  | 
| early\$1stopping |  Gibt an, ob das Training angehalten wird, wenn sich die Validierungsgenauigkeit nach einer `patience` Reihe von Epochen nicht verbessert. Beachten Sie, dass ein Validierungskanal erforderlich ist, wenn ein Early-Stopping verwendet wird. **Optional** Gültige Werte: (Boolescher Wert) `True` oder `False` Standardwert: `False`  | 
| epochs |  Die maximale Anzahl abgeschlossener Durchläufe durch das Trainingsdaten. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 5  | 
| learning\$1rate |  Die für Parameteraktualisierungen verwendete Schrittgröße. **Optional** Gültige Werte: Positive Gleitkommazahl Standardwert: 0.05  | 
| min\$1count |  Wörter, die weniger als `min_count`-mal angezeigt werden, werden verworfen. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 5  | 
| min\$1epochs |  Die Mindestanzahl der Epochen, die trainiert werden sollen, bevor die Logik zum Early-Stopping aufgerufen wird. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 5  | 
| patience |  Die Anzahl der Epochen, die gewartet werden soll, bevor ein Early-Stopping durchgeführt wird, wenn keine Fortschritte hinsichtlich der festgelegten Validierung erfolgen. Nur verwendet, wenn `early_stopping` `True` ist. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 4  | 
| vector\$1dim |  Die Dimension der Einbettungsebene. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 100  | 
| word\$1ngrams |  Die Anzahl der N-Gramm-Wort-Funktionen, die verwendet werden sollen. **Optional** Gültige Werte: Positive Ganzzahl Standardwert: 2  | 