Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Modelos TensorFlow Hub
Tiene a su disposición los siguientes modelos prentrenados para usarlos en el aprendizaje por transferencia con el algoritmo Text Classification - TensorFlow.
El tamaño, la cantidad de parámetros, el tiempo de entrenamiento y la latencia de inferencia de estos modelos puede variar considerablemente para un conjunto de datos determinado. El mejor modelo para su caso de uso dependerá de la complejidad del conjunto de datos de ajuste y de sus necesidades con respecto al tiempo de entrenamiento, la latencia de inferencia o la precisión del modelo.
| Nombre del modelo | model_id |
Origen |
|---|---|---|
|
BERT Base Uncased |
|
|
|
BERT Base Cased |
|
|
|
BERT Base Multilingual Cased |
|
|
|
Small BERT L-2_H-128_A-2 |
|
|
|
Small BERT L-2_H-256_A-4 |
|
|
|
Small BERT L-2_H-512_A-8 |
|
|
|
Small BERT L-2_H-768_A-12 |
|
|
|
Small BERT L-4_H-128_A-2 |
|
|
|
Small BERT L-4_H-256_A-4 |
|
|
|
Small BERT L-4_H-512_A-8 |
|
|
|
Small BERT L-4_H-768_A-12 |
|
|
|
Small BERT L-6_H-128_A-2 |
|
|
|
Small BERT L-6_H-256_A-4 |
|
|
|
Small BERT L-6_H-512_A-8 |
|
|
|
Small BERT L-6_H-768_A-12 |
|
|
|
Small BERT L-8_H-128_A-2 |
|
|
|
Small BERT L-8_H-256_A-4 |
|
|
|
Small BERT L-8_H-512_A-8 |
|
|
|
Small BERT L-8_H-768_A-12 |
|
|
|
Small BERT L-10_H-128_A-2 |
|
|
|
Small BERT L-10_H-256_A-4 |
|
|
|
Small BERT L-10_H-512_A-8 |
|
|
|
Small BERT L-10_H-768_A-12 |
|
|
|
Small BERT L-12_H-128_A-2 |
|
|
|
Small BERT L-12_H-256_A-4 |
|
|
|
Small BERT L-12_H-512_A-8 |
|
|
|
Small BERT L-12_H-768_A-12 |
|
|
|
BERT Large Uncased |
|
|
|
BERT Large Cased |
|
|
|
BERT Large Uncased Whole Word Masking |
|
|
|
BERT Large Cased Whole Word Masking |
|
|
|
ALBERT Base |
|
|
|
ELECTRA Small++ |
|
|
|
ELECTRA Base |
|
|
|
BERT Base Wikipedia and BooksCorpus |
|
|
|
BERT Base MEDLINE/PubMed |
|
|
|
Talking Heads Base |
|
|
|
Talking Heads Large |
|