Согласно заявлению, опубликованному в понедельник, новая модель под названием FoxBrain была разработана за рекордно короткий срок — всего четыре недели — и демонстрирует «более высокую эффективность и меньшие затраты» на обучение.
FoxBrain, обучавшаяся с использованием 120 графических процессоров Nvidia H100, показывает высокие результаты в решении математических задач и логических рассуждениях. Первоначально разработанная для внутреннего использования, модель вскоре станет доступна с открытым исходным кодом в рамках сотрудничества с технологическими партнёрами, сообщает South China Morning Post.
Предполагается, что большие языковые модели, лежащие в основе генеративных ИИ-сервисов, будут доступны для модификации и улучшения сторонним разработчикам благодаря открытому коду.
Выход на рынок FoxBrain произошло вслед за появлением модели R1, разработанной китайским стартапом DeepSeek. R1 также использует открытый исходный код и демонстрирует впечатляющую производительность при значительно меньших затратах по сравнению с моделями, разрабатываемыми такими гигантами, как OpenAI, Google и Meta Platforms.
«Улучшение логического мышления и эффективное использование графических процессоров являются ключевыми направлениями развития ИИ в последнее время», - отметил Ли Юнг-Хуэй, директор Исследовательского центра искусственного интеллекта в научно-исследовательском институте Hon Hai, исследовательском подразделении Foxconn.
«Наша модель FoxBrain использует высокоэффективную стратегию обучения, которая направлена на оптимизацию учебного процесса, вместо наращивания вычислительных мощностей», - добавил он.
Ранее «Телеспутник» писал, что появление прорывной китайской модели искусственного интеллекта DeepSeek, которую сегодня обсуждает весь мир, может быть выгодно России. Разработка позволит нашим специалистам войти в глобальную ИИ-гонку.