日本語対応はいつ?Apple Intelligenceでできることを解説
Yusuke Sakakura

Yusuke Sakakura
ブログメディア『携帯総合研究所』の創設者・運営者です。記事の執筆をはじめ、各キャリアやメーカーへの取材、素材の撮影も行なっています。システムエンジニアとしての経験を活かし、HTML・CSS・JavaScript・PHP・Pythonを用いたサイトデザインやテーマの構築を行っています。また、4キャリアの料金比較ができるシミュレーターの開発も担当しています。

Appleが「Apple Intelligence」(アップルインテリジェンス)の提供を開始しました。
iOS 18にApple Intelligenceが統合されることによって、音声アシスタントのSiriは見た目も機能も劇的に変化し、生成AIによって自信を持って文章を書けるツールもやコミュニケーションが楽しくなる画像や絵文字のAI生成にも対応します。
この記事では、Apple Intelligenceで何ができるのかを解説し、配信はいつなのか、日本語対応など気になることをまとめています。
Apple Intelligenceの日本語対応はいつ?

Apple Intelligenceは、2025年3月時点で英語圏で利用できます。日本語対応は2024年4月初旬と正式に案内されています。
なお、現時点ではApple Intelligenceの機能は一部に限定されており、今後段階的に拡充される予定。例えば、Siriのパーソナライズ化は提供が来年に延期されています。
- アメリカ
- カナダ
- オーストラリア
- ニュージーランド
- アイルランド
- イギリス
- 南アフリカ
- 中国
- 英語
- インド
- シンガポール
- フランス
- ドイツ
- イタリア
- 韓国
- ポルトガル
- スペイン
- ベトナム
Apple Intelligenceの対応機種

Apple Intelligenceが利用できるのは2025年3月時点で、A18 / A18 Pro / A17 Pro / M1 / M2 / M3 / M4シリーズのチップを搭載したiPhone、iPad、Macに限定されます。
対応機種は以下のとおり。
- iPhone 16シリーズ(16e含む):A18 / A18 Pro
- iPhone 15 Pro Max:A17 Pro
- iPhone 15 Pro:A17 Pro
- iPad Pro:M1以降のモデル
- iPad Air:M1以降のモデル
- MacBook Air:M1以降のモデル
- MacBook Pro:M1以降のモデル
- iMac:M1以降のモデル
- Mac mini:M1以降のモデル
- Mac Studio:M1 Max以降のモデル
- Mac Pro:M2 Ultra
Apple Intelligenceとは?

Apple Intelligenceは、Appleが“パーソナルアシスタント”と説明するように、単なるAIツールではなく、個人を深く理解してさまざまなサポートを行います。
例えば、家族や友だちとの約束を確認したいとき、Siriに「〇〇とのランチの予定を教えて」聞けば、やり取りを探し出して時間や場所を教えてくえます。メールなどのアプリを開かず手間を大幅に省略できます。
また、複数のアプリを連動させることもできるため、「先週の土曜日のバーベキューの写真を〇〇に送信して」と話せば、写真を特定して友だちにメッセージを送信してくれます。
Apple製品に関する膨大な知識も備えることで「iCloudって何?」「メッセージを予約送信するには?」といったiPhoneの使い方でわからないことや、知りたいこともSiriが回答してくれます。
生成AIを使った文章を磨き上げるツールや、画面のタップ操作だけで画像を生成したり、ラフなイラストを成功な画像に変換することも、複雑な感情を表現するちょうど良い絵文字が見つからないときは絵文字を生成することもできます。
さらに、自然な言葉を理解し、動画内の特定の瞬間まで発見できる写真アプリの検索機能など、Apple IntelligenceでiPhoneやiPad、Macの体験が大幅に向上します。
AIにおけるプライバシーの新基準
Apple Intelligenceは、プライバシーを最優先するAppleの厳格なポリシーで設計されているため、安心して利用できます。
AppleはAIモデルの多くが完全なオンデバイスで動作する一方で、ポケットサイズのスマホでは動作できないような大規模なモデルが必要になることもあると説明します。
- オンデバイス処理:個人を理解するためのデータを端末の外から出さずに処理する
- クラウド処理:高性能かつ大規模なモデルによって優れたAI体験を実現する
Appleが「あなたのデータには、あなた以外の人はもちろん、Appleもアクセスできません。」とアピールするように、端末外で実行されるクラウド処理においても、個人を特定できない形で実行され、さらに処理完了後に即座に破棄される仕組みが導入されています。
Apple Intelligenceにできること・機能まとめ
生まれ変わるSiri

13年前に登場した人工知能アシスタントのSiriは着実な進化を遂げたものの、革新的な進化を遂げることはありませんでした。
しかし、Apple Intelligenceの導入により、Siriはついに劇的な進化を遂げ、当初期待されていた理想的なアシスタントに大幅に近づくことになります。
見た目も大きく変化。丸い玉は廃止に

新しいSiriはデザインが一新されます。
おなじみの波形や丸い玉は表示されず、ディスプレイのエッジがぼんやりと光る見た目に大きく変わります。
訂正も理解して自然な会話が可能に
Siriに最もストレスを感じていたのは言語を理解する力が低いことです。
多少の言い間違いで会話が成立しなくなり「じゃあもう自分でやるわ」と放棄することが毎回のようにあるため、時間や天気を聞いたり、タイマーをセットするだけのアシスタントとは言えないただのツールとして使っている人は多いのではないでしょうか。
特に多いのが言い間違いです。
新しいSiriは「山手公園の明日の天気は?」と聞いた後に「あ、間違えた。山下公園ね」と訂正すると、言い間違いを認識して言い直した場所の天気を教えてくれます。

会話を記憶してやり取りがスムーズに
これまでのSiriは前に話したことを忘れていました。
新しいSiriはこれまでの会話も濃くするため、山下公園の天気を聞いた後に「そこで9時から散歩する予定を作って」と依頼すると、Siriがそこを山下公園だと理解して、9時から山下公園で散歩する予定をカレンダーに登録します。

キーボードでSiriと会話する
Siriを利用したくても電車に乗っていたり声を出せない場合は、キーボードを使って会話できるタイプ入力が利用できます。
これまではサイドキーを2回連続で押すことでタイプ入力できましたが、新しいSiriでは、画面下部を2回連続タップして起動します。
これによりHey Siriに加えてサイドキーでもSiriと声で会話できるようになりました。

iPhoneのことで困ったらSiriに聞ける
「iCloudって何?」「スクリーンタイムについて知りたい」などiPhoneを含むApple製品に関する疑問を解決するとき、これまで頼っていたのはウェブ検索でした。
しかし、ウェブ検索は誤っている記事や古い記事がトップに出ることも多く、複数のサイトを回って正しい情報がどれか特定しなければいけない手間がありました。
一方で、チャット形式で調べ物ができるAI検索では、いちいち検索ワードを考えたり、複数のサイトを回ったりする必要がなく、AIが答えをすぐに出してくれます。

このAI検索がSiriにも導入されます。
Siriでウェブ検索はできないものの、iPhone、iPad、Macの使い方を聞くと豊富な製品知識から質問に答えてくれます。
例えば、正確な機能名を知らなくてもどういった機能かを説明すると、AIが聞きたいであろうことを推測してSiriが答えてくれます。
「タイマーのセット方法を教えて」といった簡単なものはもちろん、「今メッセージを書いておいて明日送りたいんだけど、どうしたらいい?」と抽象的な質問も予約送信機能だと理解してステップバイステップで使い方を教えてくれます。
画面の内容も理解する
Siriは画面に表示されている内容も理解できます。
例えば、友達がメッセージで引越し先の住所を送ってきたら「この住所を連絡先に追加して」とお願いすると、連絡先に登録された住所を最新化します。
これまでは住所をコピーし、連絡先アプリを起動後、更新が必要な相手を見つけて変更する必要がありましたが、これらの手間がすべて解消されます。

アプリの操作もSiriにおまかせ
Siriを使ってアプリを操作することもできます。
例えば「沖縄でかりゆしを着ている〇〇の写真を見せて」とSiriにお願いすると、Apple Intelligenceが最適な検索ワードを生成して写真を検索します。

さらに、「この写真を明るくして」と補正を依頼したり、「この写真を〇〇のメモに追加して」と話すと、補正した写真がメモに追加されるなど、アプリ間の連携が必要な操作もSiriに任せることができます。
新しいSiriによるアプリ操作はサードパーティアプリでも可能。
例えば、カメラアプリのPro Camera by Momentを起動しているときに「光の跡が残るように撮影して」と依頼すれば、Siriに丸投げできます。
これからは操作がわからないときに、とりあえずSiriに話しかけてみる、ということも可能になります。

個人を深く理解するSiri
新しいSiriは、自分が忘れてしまったことや覚えていないことまで教えてくれます。
友だちが共有してくれたおすすめの映画やアニメ、家族に教えてもらったレシピ、ホテルの予約情報など、知りたい情報が見つからないときはSiriに聞くだけです。
また、運転免許証番号やパスポート番号など、本人確認の入力が必要なときはSiriが写真ライブラリから免許証やパスポートの写真を探し出して、必要な情報をコピーしてフォームに直接入力することも可能です。

例えば、母が実家から飛行機で遊びに来るときもSiriを頼ると便利です。
空港に迎えに行くときにSiriに「母の飛行機の到着時間は?」と聞くと、母から届いた飛行機の情報と、最新の運行状況をもとに到着時間を教えてくれます。

母を迎えに行った後でランチを予定しているとしましょう。
どこの店を予約したのか確認したいときに「母とのランチの予定は?」と聞くと、母とのやりとりを見つけ出して内容をSiriが教えてくれます

さらに「空港からそこまでどのくらい時間がかかる?」と聞くと、メールの内容から“そこ”(ランチをする場所)を割り出して空港からお店までにかかる時間とルートも提案してくれます。

Apple Intelligenceが導入された新しいSiriを頼れば、自分でやるには時間がかかったり、面倒なこともSiriに頼めばすぐにすべてをやってくれます。
自信を持って文章入力を書ける「作文ツール」

メールの文章作成やSNSへの投稿、ブログの記事などの文章入力もApple Intelligenceの「作文ツール」がサポートします。
- 書き直し:選択した文章を別のバージョンに書き直す
- トーン変更:フレンドリーやプロフェッショナル、簡潔など状況に合わせたトーンに変更
- 校正:文法や言葉づかいをチェック。どのように修正すれば良いのか説明して提案
- 要約:長文の要点をまとめて文章の1番上に追加できる
- リスト化・テーブル化:入力した文章を箇条書きやテーブルにまとめてわかりやすく修正する
メール
メールアプリでは、やりとりの内容に基づいて返信内容を提案するスマートリプライが利用できます。
例えば、メールで招待状を受け取った場合、参加または不参加を選ぶよう提案し、参加するにあたって必要な情報の入力を促しながら文章を作成。不参加を選ぶと、丁寧な断りの文章を作ってくれます。

積まれたメールを消化する機能にもApple Intelligenceが役立ちます。
受信箱には各メールの冒頭部分が表示されるのではなく、文章全体を要約したものが表示されることでメールを開くなくても大体の内容や緊急性をハックできます。
また、開いたメールが長文だったときもボタンをタップすることで要約が生成されます。
メールの優先度も評価して、当日のディナーの招待やその日の午後に利用する搭乗券など、緊急性の高いものを最上部に表示します。

インテリジェントな通知
Apple Intelligenceが通知の優先度を判定して、最も優先すべきものを1番上に表示するほか、通知を制限する集中モードには新しい「さまたげ低減」が追加されます。
さまたげ低減をオンにすると、Apple Intelligenceが通知の内容を理解し、託児所へのお迎えのお知らせなど、急いで確認が必要と思われる重要な通知だけを表示します。

AIで絵文字生成「ジェン文字」
iPhoneには定期的に絵文字が追加されますが、それでも適切な絵文字がなく、複雑な感情を伝えることができないこともあります。
そこで登場するのがジェン文字です。キーボードを使って「チュチュを着てサーフボードに乗っている恐竜」や「きゅうりをつけてリラックスしているスマイリー」、「サーモンベーグル」、「DJリス」など抽象的なワードを入力するだけで絵文字を作ることができます。
また、ジェン文字は写真ライブラリに保存されている友達や家族の写真から作ることも可能です

作ったジェン文字は絵文字と同じようにテキストメッセージに使用したり、メッセージアプリのTapbackやステッカー、LINEなどサードパーティのアプリでは画像としても送信できます。
画像生成「Image Playground」
Apple Intelligenceを使って画像を作ることもできます。
Image Playgroundを使った画像生成は簡単。幅広く用意されているコンセプト(テーマ、衣装、アクセサリ、場所)から適切なものを選ぶだけ。キーボードでヒントを直接入力することもできます。

専用アプリのほか、メッセージ、Keynote、Pages、フリーボードから起動することも可能。メッセージアプリから起動する場合は会話に関連するコンセプトが表示されます。
また、会話に参加している友達や家族を選ぶと、iPhone内にあるその人の写真から画像が生成されます。生成された画像が気に入らない場合は、画面をスワイプして再生成が可能。
画像のタッチが気に入らない場合はアニメーション、イラスト、スケッチといった3つのスタイルに変更することもできます。
イラストから画像を生成する「Image Wand」
文章に画像を添えたいときは「Image Wand」が便利です。
メモアプリで利用できるツールパレットからImage Wandを選んで、指やApple Pencilで適当に書いたスケッチを丸で囲むと、Image Playgroudnが洗練された画像に変換します。
また、メモの空白部分を丸で囲めば、終始のテキストを解析して文字に沿った画像を生成することもできます。


写真編集と強力な検索機能
Apple Intelligenceを使って、写真に写り込んだ不要なものを簡単に消去できます。
写真アプリの編集機能に新たに追加された「クリーンアップ」を使えば、消したい被写体をなぞったり、丸で囲むだけでAIが認識し、自動で削除してくれます。さらに、周囲の背景を解析して、削除した跡を自然に補正するため、違和感のない自然な仕上がりになります。
この機能は、iOSアプリのGoogleフォトで利用できる「消しゴムマジック」と同様の機能ですが、標準の写真アプリに内蔵されているため、Google Cloudの容量を気にせず手軽に利用できるのがメリットです。
なお、Apple Intelligenceの日本語対応は2025年4月初旬と案内されていますが、クリーンアップ機能はすでに利用可能です。

Apple Intelligenceの導入により、写真や動画の検索機能がさらに強化されます。
自然な言葉を理解する能力が向上したことで、「絞り染めのTシャツを着てスケートボードしているマヤ」や「顔にステッカーを貼ったケイティ」といった従来の検索システムでは認識しにくかったワードも正確に理解し、該当する写真を素早く見つけられるようになります。

写真以上に検索しづらいのが動画です。
動画には貴重な瞬間とそうでない時間が混在しており、大半は後者を占めます。
Apple Intelligenceが導入されると「芝生の上で側転するマリア」といった具体的なワードを入力すると、該当する瞬間を動画の中からピンポイントで検索できるようになります。
さらに、検索にヒットした動画をタップすると、その瞬間から再生が始まるため、見たい場面に素早くアクセスでき、余計な手間を大幅に省くことができます。

また、思い出の写真や動画をまとめる「メモリー」機能の作成もサポートします。
従来、メモリーを作成する際には、大量の写真からベストショットを選び、最適な順番を考え、動画に合う音楽を選ぶなど、膨大な時間と手間がかかっていました。
新しいメモリー機能では、入力した説明をもとにApple Intelligenceが自動で最適な写真を選び、Apple Music ライブラリから思い出に合う楽曲を提案してくれます。

録音・文字起こし・要約の生成

Apple Intelligenceにより、音声認識も大幅に向上します。
例えば、ボイスメモには、待望のリアルタイムな文字起こし機能が追加され、録音しながら即座にテキスト化できるようになります。
筆者はGoogle Pixelで同様の機能を利用していますが、取材には欠かせないツールになっています。「あれ?今なんて言った?」という時でもすぐに振り返ることが可能。Google Pixelはかなり高い精度を誇っていますが、Apple Intelligenceはどうでしょうか。
また、メモアプリにボイスメモ機能が統合されることで、メモを取りながら音声を録音し、文字起こしまで同時に行うことが可能になります。重要な会議やアイデアのメモをよりスムーズに残せるため、活用の幅が広がりそうです。
通話アプリにも文字起こし機能が追加され、通話中の会話をテキスト化できます。大事なやりとりを後から振り返る際に、時間をかけて音声をすべて聞かなくてもテキストでパパッと確認できます。
SiriとChatGPTのシームレスな統合
SiriにOpenAIのチャットボットシステム「ChatGPT」が統合されます。
ChatGPTの統合により、Siriの機能を超えたAIの活用が可能になります。例えば、音声やテキストでの会話を通じて疑問を解決したり、違いを比較したり、文章や画像を生成することができます。

Siriが「ChatGPTの方が適した回答を提供できると」と判断した場合、ChatGPTに情報を共有するかどうかをユーザーに確認し、承認を得た上で連携して回答を生成します。
また、マルチモーダルにも対応しているため、テキストだけでなく写真も入力できます。
例えば、iPhoneで撮影した部屋の写真を開きながらSiriに「この部屋にはどんな植物が合うと思う?」と聞くと、ChatGPTに連携してアイデアを提案してくれます。書類やPDFも同じように入力できます。
さらに、文章入力をサポートする「作文ツール」にもChatGPTが統合されます。
Apple Intelligenceの作文ツールは、一から文章を作成することはできず、既存の文章の校正や書き直しのみ対応しています。
文章をAIに考えて欲しい場合は、ChatGPTを利用してアイデアを送ることで、一から文章を作ってくれます。
Apple IntelligenceとChatGPTの連携には料金はかからず。アカウントの作成も不要です。
ただし、ChatGPT Plusなどの有料プランに加入している場合は、設定画面からログインすることで有料特典が適用されます。
Appleは、ChatGPTに加えて他のAIモデルの統合も予定しており、まずはGoogleのGeminiから対応が始まる見込みです。
コメントを残す