TensorFlow-Hub-Modelle
Die folgenden vortrainierten Modelle können für das Transfer Learning mit der Textklassifizierung – TensorFlow-Algorithmus verwendet werden.
Die folgenden Modelle unterscheiden sich erheblich in Größe, Anzahl der Modellparameter, Trainingszeit und Inferenzlatenz für einen bestimmten Datensatz. Welches Modell am besten für Ihren Anwendungsfall geeignet ist, hängt von der Komplexität Ihres Feinabstimmungsdatensatzes und allen Anforderungen ab, die Sie an Trainingszeit, Inferenzlatenz oder Modellgenauigkeit haben.
| Modellname | model_id |
Quelle |
|---|---|---|
|
BERT-Base ohne Hülle |
|
|
|
BERT-Basisgehäuse |
|
|
|
BERT Base Mehrsprachiges Gehalten |
|
|
|
Kleines BERT L-2_H-128_A-2 |
|
|
|
Kleines BERT L-2_H-256_A-4 |
|
|
|
Kleines BERT L-2_H-512_A-8 |
|
|
|
Kleines BERT L-2_H-768_A-12 |
|
|
|
Kleines BERT L-4_H-128_A-2 |
|
|
|
Kleines BERT L-4_H-256_A-4 |
|
|
|
Kleines BERT L-4_H-512_A-8 |
|
|
|
Kleines BERT L-4_H-768_A-12 |
|
|
|
Kleines BERT L-6_H-128_A-2 |
|
|
|
Kleines BERT L-6_H-256_A-4 |
|
|
|
Kleines BERT L-6_H-512_A-8 |
|
|
|
Kleines BERT L-6_H-768_A-12 |
|
|
|
Kleines BERT L-8_H-128_A-2 |
|
|
|
Kleines BERT L-8_H-256_A-4 |
|
|
|
Kleines BERT L-8_H-512_A-8 |
|
|
|
Kleines BERT L-8_H-768_A-12 |
|
|
|
Kleines BERT L-10_H-128_A-2 |
|
|
|
Kleines BERT L-10_H-256_A-4 |
|
|
|
Kleiner BERT L-10_H-512_A-8 |
|
|
|
Kleiner BERT L-10_H-768_A-12 |
|
|
|
Kleines BERT L-12_H-128_A-2 |
|
|
|
Kleines BERT L-12_H-256_A-4 |
|
|
|
Kleines BERT L-12_H-512_A-8 |
|
|
|
Kleines BERT L-12_H-768_A-12 |
|
|
|
BERT Large ohne Hülle |
|
|
|
BERT Großkoffer |
|
|
|
BERT Große Ganzwortmaskierung ohne Groß- und Kleinschreibung |
|
|
|
BERT Maskierung ganzer Wörter in Großbuchstaben |
|
|
|
ALBERT-Untergestell |
|
|
|
ELECTRA Small ++ |
|
|
|
ELECTRA-Basis |
|
|
|
BERT Base Wikipedia und BooksCorpus |
|
|
|
BERT Base Medline/PubMed |
|
|
|
Talking Heads Base |
|
|
|
Talking Heads groß |
|