Новинка демонстрирует впечатляющие показатели производительности: скорость работы увеличилась в два раза по сравнению с R10528 и на 20% превышает стандартную R1. При этом модель генерирует на 60% меньше токенов в ответах, что значительно снижает вычислительные расходы.
Пользователи и разработчики высоко оценивают способность R1T2 Chimera сохранять качество логических рассуждений при формировании более лаконичных и понятных ответов.
Модель уже размещена на Hugging Face под открытой лицензией MIT и активно используется внутри компании для обработки огромных объёмов данных — до 5 миллиардов токенов ежедневно.
Единственным недостатком остаётся отсутствие поддержки вызова внешних API-инструментов, что перешло от базовой версии. Тем не менее, эксперты считают подобный подход к созданию моделей без обучения перспективным направлением для разработки более доступных и эффективных ИИ-систем.