MicrosoftはCES 2025のIntelのカンファレンスに登壇し、同社のLLMの中でPCのNPU向けに提供しているPhi Silicaを2025年春にLunar Lake向けに提供することを発表しました。
Lunar LakeはIntel Core Ultra 200Vシリーズのコード名で、2024年後半から対応製品がリリースされています。
Intel Core Ultra 200VシリーズはCopilot+ PCとして、OSに組み込まれた様々なAI関連のCopilot関連機能が、ローカル環境で使えます。それにくわえて、Phi SilicaがAPIから呼び出せるようになるということです。
現在は各社が独自にAI関連機能を開発し各ソフトなどに組み込んでいます。
APIとして提供されるという事は、ソフトの開発者はCopilot+ PCとしてOSに組み込まれたAI関連機能を、ソフトから呼び出すだけで使えるようになるので、比較的簡単にソフトにAI機能を組み込むことが出来るようになります。このAPIを活用したAI関連機能の充実が期待されます。
現状は、各社が独自に開発したAI関連機能、Copilot+ PCでのMicrosoftが提供しているAI機能以外でしか、PCでのAI機能は使えません。APIの提供でPCでのAI関連機能がより活発化することが期待されます。
Phi Silicaとは
MicrosoftはPhi SilicaをLarge Language Model(LLM)ではなくSmall Language Model(SLM)としています。
LLMとは様々なデータを使ってAI向けに学習したデータセットで、日本語では大規模言語モデルなどと呼ばれています。ユーザーが実際にAIを利用する際には、このLLMの性能がAIの出力内容に大きく影響します。
基本的にLLMで使うパラメーターの数は大きければ大きいほどAIの出力内容が良くなります。しかし、パラメーター数が大きいLLMは、一般のPC等ではメモリ量などの関係で利用出来ません。
PCなど向けには、パラメーター数を減らした小さなLLMが必要になります。
各社はLLMのサイズを大中小の3段階くらいに分けていることが多いですが、Phi Silicaはその中で最小サイズとなるLLMで、同社はSLMと呼んでいます。パラメーター数は33億とされています。
なお、Phi Silicaの上位のPhi-3-miniは38億、Phi-3-smallは70億、Phi-3-mediumは140億程度で、Phi-3-smaillで超ハイエンド製品ならようやく動作するくらいになり、それ以上は2025年初頭現在では一般のPC、ワークステーションでは動作しません。
https://learn.microsoft.com/ja-jp/windows/ai/apis/phi-silica
CES 2025での発表内容
I am thrilled to announce the upcoming availability of Phi Silica on lunar Lake.
It’s an exciting milestone for the industry. Physical is a small language model, built for local NPU, power and performance and runs natively in Windows. And it will be available for developers as a part of the Windows Copilot Runtime.
Phi Silica is enterprise ready. And cyber executive order compliant, and will be available to use in apps, like word and Outlook for enhanced security and offline usage.
本日は、Lunar Lake 上で動作する Phi Silica のリリース予定について発表できることを大変嬉しく思います。これは業界にとってエキサイティングなマイルストーンです。Phi Silica は、ローカル NPU のために構築された、高性能かつ省電力な小型言語モデルです。Windows 上でネイティブに動作し、開発者の皆様には Windows Copilot Runtime の一部として提供される予定です。