XGLM — это крупная многоязычная модель на основе трансформеров, разработанная Meta AI и командой исследователей из университета Сингапура. Модель предназначена для выполнения разнообразных задач по обработке естественного языка (NLP), таких как машинный перевод, генерация текста, классификация текстов и многие другие задачи. Одной из главных особенностей модели является её способность работать более чем со 100 языками, что делает её особенно полезной для мультилингвальных приложений.
pip install transformers torch
from transformers import AutoModelForCausalLM, AutoTokenizermodel_name = "facebook/xglm-564M"tokenizer = AutoTokenizer.from_pretrained(model_name)model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Привет! Как дела?"inputs = tokenizer(input_text, return_tensors="pt")outputs = model.generate(**inputs, max_length=20)print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Следуя этим шагам, вы сможете легко интегрировать XGLM в свои проекты и воспользоваться всеми преимуществами этой мощной многоязычной модели.