2025年6月に開催されたWWDC25で、「Apple Intelligence Foundation Models framework」の正式公開があったらしいので(geminiに力を借りて)追ってみました。
この発表により、これまでAppleの純正アプリに限定されていたオンデバイスAIモデルが、私たちサードパーティ開発者にも開放されることになりました。本記事では、公開された公式情報を基に、この新しいフレームワークの概要と特徴を整理していきます。
APIの公開状況と利用可能性
まず、このフレームワークがいつから使えるようになるのか、発表されたスケジュールを見ていきましょう。
WWDC25での発表と同時に、Apple Developer Program会員はベータ版の利用が可能になりました。その後、2025年7月には一般ユーザーも対象としたパブリックベータが開始され、最終的には秋に予定されているiOS 26、iPadOS 26、macOS Tahoe 26の正式リリースと共に、本格的に使えるようになるという流れのようです。
これにより、開発者はApple Intelligenceの基盤モデルを自身のアプリケーションに直接組み込み、新しいユーザー体験を構築できるようになります。
参考資料
・ Apple、開発者向けのツールとテクノロジーを大幅に強化
・ Apple、開発者向けにFoundation Models frameworkを発表
・ Apple、サードパーティ開発者によるApple Intelligenceモデルの利用を許可
利用料金と制約
次に、利用料金や制約について見ていきましょう。この点に関しては、開発者にとっては、とてもありがたい条件が示されています。
公式発表によると、Foundation Models frameworkの利用は完全に無料であり、AIの処理にコストは一切かからないとのことです。これはオンデバイスで処理が完結する仕組みの大きな利点です。
また、フレームワークを導入してもアプリサイズへの影響は軽微で、ほんの数行のSwiftコードでAIモデルにアクセスできる手軽さも、大きな魅力とされています。
参考資料
・ Apple、開発者向けのツールとテクノロジーを大幅に強化
・ Apple Intelligence、新機能でさらにパワフルに
技術仕様と機能
ここでは、Foundation Models frameworkの技術的な詳細について、公開情報を基に解説します。
モデルの技術仕様
フレームワークの中核をなすのは、約30億パラメータを持つオンデバイス言語モデルです。このモデルは、汎用的なチャットボットとは異なり、以下の様な特定の作業で高い性能を発揮するよう設計されています。
- テキストの要約
- 文章からの人名や地名などの抽出(エンティティ抽出)
- テキストの理解と文章の改善
- 短い会話の生成
- アイデア出しなどの創作活動
Apple Siliconに最適化され、日本語を含む15の言語に対応しています。さらに、テキストと画像の両方を入力として扱えるため、活用の幅も広そうです。
出典:
Appleのオンデバイス/サーバー基盤モデルのアップデートについて
Apple、オフラインAIモデルを開発者に開放
これまでにないアプローチ:Guided Generation
このフレームワークで特に注目したい機能の一つが「guided generation」です。これは、AIの出力をSwiftの型システムできっちりと制御する、非常に新しいアプローチです。
開発者は、AIに生成させたいデータの形をSwiftのstruct
やenum
で定義し、@Generable
マクロを付けます。
@Generable
struct GameCharacter {
let name: String
let level: Int
let equipment: [String]
}
モデルを呼び出す際にこの型を指定するだけで、AIは定義されたデータの形に沿った、間違いのないデータを返してくれます。
// 公開されたコード例
let character = try await session.respond(generating: GameCharacter.self)
これまで一般的だった、AIからの出力をプログラムで解釈し直す手間が不要になり、より確実なコードをシンプルに書けるようになるとされています。
参考資料
・Appleのオンデバイス/サーバー基盤モデルのアップデートについて
・Foundation Models frameworkを深く知る(WWDC25セッション)
・Foundation Models frameworkの紹介(WWDC25セッション)
外部連携を可能にする「Tool Calling」
guided generation
を土台として、外部のサービスと連携できるようにするのが「Tool calling」機能です。開発者が特定のルールに沿った関数をあらかじめ用意しておくと、AIが自分で判断してその関数を呼び出し、リアルタイムの情報を取得したり、アプリ内の他の機能を動かしたりできます。
出典:
・ Appleのオンデバイス/サーバー基盤モデルのアップデートについて
・ 実践:Foundation Models frameworkでオンデバイスAIをアプリに導入(WWDC25セッション)
対話型UIのための機能
その他、リアルタイムに応答を表示するためのストリーミングAPIや、複数回にわたる会話の流れを記憶するステートフルセッションといった機能も用意されており、高度な会話形式のインターフェースも作りやすいよう考えられています。
参考資料
・ Foundation Models frameworkの紹介(WWDC25セッション)
・ 実践:Foundation Models frameworkでオンデバイスAIをアプリに導入(WWDC25セッション)
デバイス要件と各種制約
このフレームワークを利用するには、特定のハードウェアとソフトウェアが必要です。開発を始める前に、あらかじめ、動かすために必要な環境を把握しておくことが大切です。
- 対応デバイス: iPhone 16シリーズ、A17 Proチップ以降のiPhone 15 Pro/Pro Max、M1チップ以降のiPadおよびMac、Apple Vision Pro。
- OSバージョン: iOS 18.1, iPadOS 18.1, macOS Sequoia 15.1, visionOS 2.4以降。
利用可能地域と言語: 2025年3月の時点で、日本語を含む主要な15言語に対応し、EU圏を含むほぼ全世界で利用可能とされています。
参考資料
・ Apple Intelligenceの利用条件(Apple サポート)
・ Foundation Models frameworkの紹介(WWDC25セッション)
・ Apple Intelligence、新言語・地域へ提供拡大 (2025年3月)
・ Apple Intelligence、4月より提供言語・地域を拡大 (2025年2月)
・ Apple Intelligenceの利用条件(Apple サポート)
セキュリティとプライバシー保護
Appleの製品哲学の中核であるプライバシーへの配慮は、このフレームワークでも最も大切にされています。全てのAI処理はユーザーのデバイス内で完結するため、機密情報や個人データが外部のサーバーに送られることはありません。
一方で、開発者側も、利用規約をしっかりと守る必要があります。違法な行為を助長したり、有害なコンテンツを生成したりといった特定の使い方は禁止されており、自分のアプリがAppleのルールに沿っているかを確認することが求められます。
参考資料
・ Appleのオンデバイス/サーバー基盤モデルのアップデートについて
・ Foundation Models frameworkの利用規約
実装で考えたいこと
Appleの公式ドキュメントやWWDCのセッションでは、実際にアプリに組み込む際に、開発者が気をつけるべき点がいくつか示されています。その中から特に重要なものを抜粋して紹介します。
課題:使えない環境でのエラー
このフレームワークは特定のデバイスやOSでしか動かないため、非対応の環境で機能を呼び出すとエラーになってしまいます。
推奨される対策:事前に使えるか確認する
公式ドキュメントでは、機能を呼び出す前にSystemLanguageModel
のavailability
プロパティを調べ、フレームワークが使える状態かを確認することが強く勧められています。これにより、非対応のユーザーには別の機能を見せるなど、万が一の場合に備えた丁寧な対応ができます。
課題:AIが応答してくれない場合
ユーザーの入力内容によっては、AIがうまく応答を返せなかったり、安全上の理由から応答を拒否したりすることがあります。
推奨される対策:エラー処理をしっかり書く
AIの呼び出しは失敗することもあるため、try
を使ったエラー処理は必須とされています。様々なエラーのパターンを想定し、それぞれの場合に対応する処理を書いておくことで、アプリが不安定になるのを防ぐ必要があります。
課題:パフォーマンスとバッテリー
オンデバイスAIは強力ですが、使い方によってはデバイスの処理能力を使い、バッテリーの消費に影響を与える可能性があります。
推奨される対策:プロンプトの調整とパフォーマンス測定
XcodeのPlayground機能を使い、色々な指示(プロンプト)を試して、パフォーマンスを見ながら調整することが勧められています。また、Instrumentsというツールでパフォーマンスを測定し、処理が重くなっている箇所がないかを確認することも大切です。
参考資料
・ Foundation Models frameworkの紹介(WWDC25セッション)
・ 実践:Foundation Models frameworkでオンデバイスAIをアプリに導入(WWDC25セッション)
・ AppleのFoundation Model Framework入門
活用事例と今後の展望
WWDCでは、ジャーナリングアプリ「Day One」やハイキングアプリ「AllTrails」が、このフレームワークを活用した例として紹介されました。これらのアプリは、AIの力を借りてユーザー体験を良くしつつ、プライバシーもしっかり守るという、良いお手本と言えそうです。
※画像やファイルは記事投稿時に別途挿入します
参考資料
・ Apple、開発者向けのツールとテクノロジーを大幅に強化
・ Apple、オフラインAIモデルを開発者に開放
・ Apple、開発者向けにFoundation Models frameworkを発表
公開された情報を見る限り、このフレームワークは、単に便利な機能をアプリに追加するだけでなく、「言葉でアプリを操作する」といった、アプリのあり方そのものを変えるような可能性も感じさせます。
まとめ
今回発表されたApple Intelligence Foundation Models frameworkは、2025年以降のモバイルアプリ開発において、有力な選択肢の一つになりそうです。
無料で利用でき、プライバシーがしっかり守られ、そしてSwiftの仕組みと深く結びついた「guided generation」のような新しい機能を備えている点。これらは、開発者が安心して使えるAI機能を、これまでよりずっと少ない手間で実装できる環境が整ったことを示しています。
今後、このフレームワークを使ってどんな新しいアプリケーションが登場するのか、その動向に注目していきたいところです。
参考資料
・ Appleのオンデバイス/サーバー基盤モデルのアップデートについて
・ Apple Intelligence、新機能でさらにパワフルに