DistilBERT — это облегчённая версия модели BERT, разработанная Hugging Face. Эта модель была создана с целью уменьшения размера и ускорения работы оригинальной версии BERT без значительного ущерба для точности. DistilBERT может быть полезен в ситуациях, когда требуется высокая производительность при ограниченных вычислительных ресурсах.
pip install transformerspip install tensorflow
from transformers import AutoModelForSequenceClassificationmodel = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")
import torchinput_text = "This is a sample text for classification."inputs = tokenizer(input_text, return_tensors="pt")outputs = model(**inputs)logits = outputs.logitspredicted_class = logits.argmax(-1).item()print(f"Predicted class: {predicted_class}")
Следуя этим шагам, вы сможете эффективно применять модель DistilBERT для ваших задач обработки естественного языка, получая быстрые и точные результаты.