Корпорація Майкрософт анонсувала нове доповнення до свого сімейства моделей штучного інтелекту Phi.
Модель під назвою Phi-4 покращилася в кількох областях порівняно зі своїми попередниками, стверджує Microsoft, зокрема у вирішенні математичних задач. Це частково результат покращення якості навчальних даних.
Phi-4 був доступний у дуже обмеженому доступі з четверга ввечері: лише на нещодавно випущеній Microsoft платформі розробки Azure AI Foundry і лише для дослідницьких цілей відповідно до Ліцензійної угоди Microsoft Research.
Це остання мала мовна модель Microsoft із розміром 14 мільярдів параметрів, яка конкурує з іншими малими моделями, такими як GPT-4o mini, Gemini 2.0 Flash і Claude 3.5 Haiku. Ці моделі штучного інтелекту часто швидші та дешевші у використанні, але продуктивність малих мовних моделей поступово зросла протягом останніх кількох років.
У цьому випадку Microsoft пояснює стрибок у продуктивності Phi-4 використанням «високоякісних синтетичних наборів даних», поряд із високоякісними наборами даних, створеними людьми, і деякими невизначеними вдосконаленнями після навчання.
Сьогодні багато лабораторій штучного інтелекту більш уважно вивчають інновації, які вони можуть застосувати щодо синтетичних даних і постнавчання. Генеральний директор Scale AI Александр Ванг написав у Twitter у четвер, що «ми натрапили на стіну даних перед навчанням», підтверджуючи кілька повідомлень з цього приводу за останні тижні.
Зокрема, Phi-4 є першою моделлю в серії Phi, випущеною після відходу Себастьєна Бубека. Бубек, який раніше був віце-президентом відділу штучного інтелекту в Microsoft і ключовою фігурою в розробці моделі Phi компанії, покинув Microsoft у жовтні, щоб приєднатися до OpenAI.