もしかして、あなたは「Hey Siri」に話しかけても期待通りの答えが返ってこなくてイライラした経験はありませんか?長年にわたってSiriは「賢くならない音声アシスタント」として知られてきましたが、2026年1月12日に発表されたAppleとGoogleの歴史的な提携により、その状況が劇的に変わろうとしています。iPhoneユーザーが待ち望んでいた本当に使えるSiriがついに実現するかもしれません。
- AppleとGoogleが複数年契約を締結し、Geminiモデルを活用した次世代Siriを開発
- 2026年3月から4月にiOS 26.4でリリース予定、プライバシー保護は維持される
- 年間約10億ドルの契約で、Apple Intelligenceの基盤技術としてGeminiを採用
- Siriが抱えてきた根本的な問題とは?
- なぜAppleはGoogleと手を組むことにしたのか?
- プライバシーは本当に守られるのか?ユーザーの懸念に答える
- 2026年春に登場する新しいSiriは何ができるのか?
- 契約の規模と業界への影響は?
- ChatGPTとの関係はどうなるのか?
- ユーザーの反応と期待値は?
- 競合他社はどう動いているのか?
- リリースタイムラインと今後の展望
- 実際に使えるGemini搭載Siri活用プロンプト集
- みんなが体験するSiriのイライラ問題と解決策
- 次世代Siriで変わる具体的な生活シーン
- Apple Shortcuts活用でさらに効率化する方法
- プライバシー設定を確認すべき5つのポイント
- 2026年春までに準備しておくべきこと
- ぶっちゃけこうした方がいい!
- よくある質問
- まとめ
Siriが抱えてきた根本的な問題とは?

AIのイメージ
2011年のiPhone 4S登場以来、Siriは音声アシスタントのパイオニアとして期待されてきました。しかし現実はどうでしょうか。多くのユーザーが「すみません、よくわかりません」という回答に失望し、結局は機能をオフにしてしまうという状況が続いていました。
AppleがWWDC 2024で発表したパーソナライズされたSiriの機能は、当初2025年にリリースされる予定でした。ところが、Apple幹部自身が個人テストで「機能が正常に動作しない、あるいは宣伝通りに機能しない」ことを認め、リリースを2026年春まで延期せざるを得なかったのです。
この遅延の背景には、AI開発競争における深刻な技術的課題がありました。AppleのFoundation Modelsは約30億パラメータ規模でしたが、GoogleのGeminiは1.2兆パラメータという圧倒的な規模を誇ります。この400倍もの差は、単なる数字の違いではなく、AIの理解力と応答品質に直結する決定的な格差でした。
なぜAppleはGoogleと手を組むことにしたのか?
長年にわたって自社開発にこだわってきたAppleが、ライバルであるGoogleと提携するという決断は、業界に大きな衝撃を与えました。実はAppleは複数のAI企業を検討していたことが明らかになっています。OpenAIのChatGPT、AnthropicのClaude、そしてGoogleのGeminiです。
最終的にAppleが選んだのはGeminiでした。共同声明の中でAppleは「慎重な評価の結果、GoogleのAI技術がApple Foundation Modelsにとって最も有能な基盤であると判断した」と述べています。この選択には明確な理由があります。
技術的な優位性だけでなく、既存の協力関係も重要な要因でした。GoogleはすでにSafariのデフォルト検索エンジンとして年間200億ドル規模の契約を結んでいます。今回のGemini契約は、この長年のパートナーシップをAI領域に拡大する自然な流れとも言えます。
さらに興味深いのは、この契約が非独占的だという点です。つまりAppleは、必要に応じて自社モデルや他社のAIモデルを組み合わせて使用できる柔軟性を保持しているのです。OpenAIとのChatGPT統合も継続されることが確認されています。
プライバシーは本当に守られるのか?ユーザーの懸念に答える
AppleユーザーがGoogleとの提携に最も懸念を抱くポイントは、間違いなくプライバシー保護です。多くのユーザーがiPhoneを選ぶ理由の一つは、Googleのデータ収集手法を避けたいからです。では今回の提携でプライバシーはどうなるのでしょうか。
両社の共同声明は明確です。「Apple Intelligenceは引き続きAppleデバイスとPrivate Cloud Computeで動作し、Appleの業界最高水準のプライバシー基準を維持する」としています。つまり、ユーザーデータがGoogleに渡ることはないという約束です。
技術的な仕組みはこうなっています。Geminiモデル自体はAppleが管理するサーバー上で動作し、ユーザーのクエリ処理はすべてAppleのインフラストラクチャ内で完結します。GoogleはAIモデルという「頭脳」を提供しますが、ユーザーの会話データや個人情報にアクセスすることはできません。
これは現在のChatGPT統合と同じアプローチです。SiriがChatGPTに質問を転送する場合も、OpenAIはユーザーデータを保存せず、IPアドレスもマスクされています。Gemini統合でも同様の保護措置が講じられることになります。
Apple Insiderの報道によれば、「Googleのロゴは表示されず、エンドユーザーが接するすべての技術はAppleのものになる」としています。つまり、ユーザーから見れば従来通りSiriとして機能し、裏側でGeminiが動いていることすら意識しないデザインになるということです。
2026年春に登場する新しいSiriは何ができるのか?
iOS 26.4で提供される予定の次世代Siriには、WWDC 2024で約束された3つの主要機能が含まれます。これらはSiriを単なる音声アシスタントから、真のパーソナルAIアシスタントへと進化させる革新的な機能です。
一つ目は個人コンテキストの理解です。たとえば「母のフライトは何時?」と尋ねると、Siriはメールやメッセージアプリから情報を取得して回答します。「ランチの予約も確認して」と続ければ、複数のアプリをまたいで情報を統合してくれます。
二つ目はオンスクリーン認識です。画面に表示されている内容を理解し、その文脈に基づいて行動できるようになります。友人とのメッセージで住所が送られてきたら、「ここへの行き方を教えて」と言うだけで、Siriがその住所を認識して経路案内を開始します。
三つ目はアプリ内での詳細な操作です。「この写真を編集してもっと明るくして」「昨日のメモに買い物リストを追加して」といった具体的な指示に対応できるようになります。従来のSiriでは実現できなかった複雑なタスクの実行が可能になるのです。
実際の使用シーンを想像してみましょう。「今から出発したら5時のフライトに間に合う?」と尋ねた場合、新しいSiriは交通状況、フライトのステータス、TSAの待ち時間を総合的にチェックして、論理的な回答を提供します。これはGeminiの強力な推論能力があってこそ実現できる機能です。
契約の規模と業界への影響は?
Bloombergの報道によれば、Appleは年間約10億ドルをGoogleに支払う契約を結んでいます。この金額は巨額に見えますが、Googleが検索エンジン契約でAppleに支払っている年間200億ドルと比較すると、相対的には小さな投資です。
この契約が正式発表されたことで、Google親会社のAlphabetの株価は上昇し、時価総額が一時的に4兆ドルを突破しました。これはNvidia、Microsoft、Appleに続く4社目の快挙です。投資家たちは、この提携がAI分野における両社の競争力を大幅に強化すると評価しています。
Wedbush証券のアナリスト、ダン・アイブス氏は「これはGoogleにとって大きな検証の瞬間であり、AppleとGoogleの両方にとって増分的にポジティブだ。Appleが遅れを取っていたAI戦略を軌道に戻す助けになる」とコメントしています。
一方で、すべての反応が肯定的というわけではありません。xAIのCEOであるイーロン・マスク氏は、「Googleがすでにアンドロイドとクロームで優位に立っている中、これは不合理な権力集中だ」とX上で批判しています。
ChatGPTとの関係はどうなるのか?
多くのユーザーが疑問に思うのは、既存のChatGPT統合がどうなるかという点です。AppleはCNBCに対して「ChatGPTとの契約に変更はない」と明言しています。
つまり、Gemini、ChatGPT、Apple独自のモデルという三層構造が維持されることになります。基本的なタスクはデバイス上のAppleモデルで処理し、より複雑な推論が必要な場合はGeminiベースのモデルを活用し、特定の質問についてはChatGPTに転送するという柔軟な仕組みです。
この多様性は、単一のAIプロバイダーに依存するリスクを回避する賢明な戦略と言えます。非独占契約により、AppleはAI技術の進化に応じて最適なソリューションを選択し続けることができます。
実際、Appleは2027年頃に独自の1兆パラメータモデルの開発を進めているとされています。しかし、それが完成した後も、Geminiを訓練、比較、強化の目的で継続的に活用する可能性が高いと専門家は分析しています。
ユーザーの反応と期待値は?
技術系フォーラムやSNSでは、この発表に対してユーザーの意見が分かれています。一部のApple愛好家は「Googleに依存するのは残念だ」と失望を表明していますが、大多数のiPhoneユーザーは機能の改善を最優先しています。
MacRumorsのコメント欄には「技術の中身が何であろうと、Siriが本来の可能性を発揮するならそれで十分だ」「iPhone所有者の99.99%は技術ブログを読まない。Geminiが裏で動いていることを知っても『それで?』と言うだけだろう」といった現実的な意見が多数見られます。
興味深いのは、2024年後半の調査でiPhoneユーザーの73%が「AI機能はデバイスにほとんど、あるいは全く価値を加えていない」と回答していた点です。この状況を変えられるかどうかが、新しいSiriの真価が問われるところです。
一方で、プライバシーを重視するユーザーからは懸念の声も上がっています。「Googleを可能な限り避けている人間として、これがiPhoneに組み込まれるのは非常に不快だ」というコメントもあります。しかしAppleが繰り返し強調しているように、データ処理はAppleのインフラ内で完結し、Googleに情報が渡ることはありません。
競合他社はどう動いているのか?
Appleが苦戦している間、競合他社は着実にAIアシスタントを進化させてきました。サムスンはGalaxyシリーズにBixbyとGoogleアシスタントの両方を統合し、Microsoftはコルタナを廃止してCopilotに移行、AmazonはAlexaの大規模なアップデートを計画しています。
特に注目すべきは、GoogleがAndroid版Geminiに2026年3月までに画面認識機能を追加する予定だという点です。YouTubeでレシピ動画を見ている最中に「これは何人分?」と尋ねれば、映像の内容を理解して即座に回答してくれるようになります。
この機能はGoogle DeepMindの「Project Astra」という最新のAI技術がベースになっています。従来は文章や音声に対してAIが反応するのが普通でしたが、これからは映像も理解できるようになるのです。
AppleがiOS 26.4でリリースする新しいSiriが、これらの競合機能にどれだけ対抗できるかが、今後のスマートフォンAI戦争の行方を左右するでしょう。
リリースタイムラインと今後の展望
最新の情報によれば、Geminiを搭載した次世代SiriはiOS 26.4で登場する予定です。Appleの過去のリリースパターンから、これは2026年3月から4月頃になると予想されています。
現在、iOS 26.3のベータテストが進行中で、1月末にはこのバージョンが一般リリースされる見込みです。その後、春先にiOS 26.4がリリースされ、待望の新しいSiriがようやく実現することになります。
WWDC 2024での発表から約18ヶ月という長い遅延の末、ついにユーザーの手元に届くことになりますが、この期間の遅延は決して無駄ではなかったと言えるでしょう。Appleは独自開発に固執するのではなく、最高の技術を提供するという判断を下したのです。
今後数年間、Appleは引き続き独自の1兆パラメータモデルの開発を進めながら、Geminiとの協力関係を維持していく見通しです。技術的な進歩に応じて、最適なAIソリューションの組み合わせを柔軟に調整できる体制が整いました。
実際に使えるGemini搭載Siri活用プロンプト集

AIのイメージ
新しいSiriが登場する前に、今から練習できる効率的なプロンプトをご紹介します。これらは現在のSiriでも使えますが、Geminiベースになればさらに正確で自然な応答が期待できます。
朝のルーティン最適化プロンプトとして「今日の予定を確認して、最初の会議までの時間を計算して」と言えば、カレンダーを分析して準備時間を教えてくれます。さらに発展させて「今日の天気を確認して、傘が必要か教えて」「通勤ルートの交通状況を調べて、いつもより早く出発すべきか判断して」といった複数の情報を組み合わせた質問も可能になります。
メール処理の効率化プロンプトでは「未読メールで緊急性の高いものを要約して」「〇〇さんからの最新メールに『確認しました。明日までに回答します』と返信して」といった使い方が効果的です。現在のSiriではChatGPTに転送される可能性がありますが、Gemini統合後はより自然に処理されるでしょう。
タスク管理の実践プロンプトとして「明日の午前中にリマインダーを3つ設定して。プレゼン資料の確認、クライアントへの電話、経費精算の提出」と一度に複数のタスクを登録できます。さらに「来週の火曜日までにやるべきことをすべて表示して、優先順位をつけて」という包括的な依頼も可能になります。
みんなが体験するSiriのイライラ問題と解決策
実際のユーザーが日常的に遭遇するSiriの問題と、それを解決する具体的な方法をご紹介します。これらは新しいSiriが登場するまでの対処法としても有効です。
「Hey Siri」が反応しない問題は最も頻繁に報告されています。まず設定から「Siriと検索」を開き、「”Hey Siri”を聞き取る」がオンになっているか確認してください。それでも動作しない場合は、Siriを一度オフにしてデバイスを再起動し、再びオンにすることで解決することが多いです。興味深いことに、言語設定を「英語(オーストラリア)」から「英語(イギリス)」に変更するだけで即座に動作するようになったという報告が複数あります。
Siriの声が聞こえない問題も頻発します。多くの人が気づいていないのですが、Siriには専用の音量設定があります。解決方法は簡単で、Siriに簡単な質問をして回答が表示されている間に音量ボタンを押して調整するだけです。この方法を知らずに「Siriが壊れた」と思い込んでいるユーザーが驚くほど多いのです。
CarPlayでSiriが動作しない問題は、設定の「Siri Hands-Free」プロトコルが原因のことがあります。設定からSiriが完全に有効化されているか確認し、車のインフォテインメントシステムのファームウェアアップデートもチェックしてください。場合によっては車側のアップデートが必要なこともあります。
VPN使用時にSiriが機能しないという報告も多数あります。これは意外と見落とされがちですが、VPNを一時的にオフにするだけで即座に問題が解決します。VPNが原因でiPhoneの多くの機能に問題が発生することがあり、実は広告されているほどのセキュリティ向上効果もないことが指摘されています。
次世代Siriで変わる具体的な生活シーン
2026年春にリリースされる新しいSiriが、実際の生活でどのように役立つのか、具体的なシナリオをご紹介します。
通勤・移動時のシナリオでは、「今から出発したら5時のフライトに間に合う?」という質問に対して、現在の交通状況、空港までの所要時間、チェックインとセキュリティチェックの待ち時間、さらにはゲートまでの移動時間まで総合的に判断して回答してくれます。従来のSiriは単に「地図を開きますか?」と聞くだけでしたが、新しいSiriは状況を理解して推論します。
買い物・料理のシナリオでは、「冷蔵庫にある材料で今夜作れる料理を提案して」と言えば、写真アプリやメモアプリから食材情報を取得し、レシピを提案してくれるようになります。さらに「その料理に合うワインも教えて」「近くのスーパーで足りない材料を検索して」といった連続した会話が自然に成立します。
仕事の効率化シナリオでは、メールを見ながら「このメールに書かれている会議を来週のカレンダーに追加して」と言うだけで、メールから日時、場所、参加者を抽出して予定を作成します。会議が他の予定と重複していれば自動的に代替時間を提案してくれるのです。
健康管理のシナリオでは、「今月の運動量を先月と比較して、目標達成のためのアドバイスをして」という複雑な分析依頼にも対応できます。ヘルスアプリのデータを解析し、具体的な改善提案を提示してくれます。
Apple Shortcuts活用でさらに効率化する方法
Gemini搭載Siriが登場する前に、Apple Shortcutsを使いこなしておくと、新しいSiri体験がさらに充実します。
ワンタップで複雑なタスクを実行する設定として、「帰宅モード」というショートカットを作成できます。これは家に着いたことをGPSで検知すると、自動的にエアコンをオンにし、照明を調整し、家族に「帰宅しました」というメッセージを送り、お気に入りの音楽を再生するという一連の動作を実行します。
仕事効率化のためのショートカットでは、「会議メモ作成」を設定しておくと、Siriに「会議メモを開始」と言うだけで、新しいノートを作成し、現在時刻と参加者を自動入力し、音声録音を開始します。会議終了後には自動的にカレンダーイベントにノートへのリンクを追加してくれます。
健康習慣をサポートするショートカットとして、「水分補給リマインダー」を設定すれば、2時間ごとに通知が来て、Siriに「水を飲んだ」と報告するだけでヘルスアプリに記録されます。データが蓄積されれば、1日の水分摂取量の傾向分析も可能になります。
位置情報を活用したショートカットでは、オフィスに到着すると自動的に仕事用のフォーカスモードに切り替わり、通知がフィルタリングされ、特定のアプリだけが前面に表示されるように設定できます。退社時には自動的に通常モードに戻ります。
プライバシー設定を確認すべき5つのポイント
Gemini統合が始まる前に、現在のプライバシー設定を見直しておくことをおすすめします。
Siriと検索の履歴設定では、設定アプリから「Siriと検索」を開き、「Siri & Dictation History」を確認してください。ここで過去の会話履歴を削除したり、Appleへのデータ送信を制限したりできます。新しいSiriが始動する前に、不要な履歴をクリアしておくと良いでしょう。
アプリごとのSiriアクセス権限は、「Siriと検索」画面を下にスクロールすると、各アプリの設定が表示されます。どのアプリがSiriから情報にアクセスできるか、個別に制御できます。特に個人情報を含むアプリ(メール、メッセージ、写真など)については慎重に設定しましょう。
位置情報サービスの細かい設定も重要です。設定から「プライバシーとセキュリティ」→「位置情報サービス」→「Siri & Dictation」で、Siriが位置情報にアクセスする条件を「使用中のみ」に設定することをおすすめします。
分析データの共有設定は、設定の「プライバシーとセキュリティ」→「分析と改善」で確認できます。「Siri & Dictationの改善」をオフにすれば、あなたの音声データがAppleのサーバーに保存されなくなります。ただし、Siriの精度向上には貢献できなくなります。
ロック画面でのSiriアクセスも見直しておきましょう。「Siriと検索」設定で「ロック中にSiriを許可」をオフにすれば、デバイスがロックされている状態ではSiriが反応しなくなり、セキュリティが向上します。
2026年春までに準備しておくべきこと
新しいSiriが最大限に活用できるよう、今から準備できることがあります。
連絡先情報の整理は最優先事項です。新しいSiriは個人コンテキストを理解するため、連絡先に「母」「上司」「同僚」といった関係性を登録しておくと、「母にメッセージを送って」といった自然な指示が可能になります。設定から自分の連絡先カードを開き、「関連する名前を追加」で家族や仕事関係者を登録しましょう。
カレンダーとメールの同期確認も重要です。iCloudでカレンダーとメールが適切に同期されていることを確認してください。Googleカレンダーなど他のサービスを使用している場合も、iPhoneと完全に同期されているか確認しましょう。新しいSiriはこれらの情報を横断的に活用します。
Apple Notesの活用開始もおすすめです。メモアプリを使い始めることで、Siriがあなたのタスクやアイデアにアクセスできるようになります。中心となる「インデックスノート」を作成し、関連するノートへのリンクをまとめておくと、Siriが情報を見つけやすくなります。
写真アプリの整理も効果的です。新しいSiriは写真を理解する能力が向上するため、重要な写真にキャプションを追加したり、アルバムを作成したりしておくと、「去年の夏の旅行の写真を見せて」といった検索が正確になります。
ぶっちゃけこうした方がいい!
ここまで新しいSiriの技術的な詳細や準備方法を説明してきましたが、正直に言うとこの記事を読んでいるあなたがすべきことはシンプルです。それは過度な期待をせず、段階的に使いこなしていくということです。
2026年3月から4月にiOS 26.4がリリースされても、初日から完璧に動作するとは限りません。AppleとGoogleの技術者たちがどれだけ優秀でも、数億人のユーザーが実際に使い始めれば予想外の問題が必ず出てきます。初期のバグや不具合に振り回されるよりも、まずは簡単なタスクから試していくのが賢明です。
個人的には、新しいSiriが登場したら最初の1週間はリマインダーとカレンダー管理だけに絞って使うことをおすすめします。「明日の午前10時にミーティングのリマインダーを設定して」「今週の予定を教えて」といった基本的な機能で安定性を確認してから、徐々にメール管理や複雑なショートカットに拡大していくのです。
そしてもう一つ、声を大にして言いたいのはSiriに完璧を求めすぎないことです。Geminiが搭載されても、Siriはあくまで「アシスタント」であって「魔法」ではありません。AIが間違えることもあるし、あなたの意図を誤解することもあります。だからこそ、重要な情報は必ず自分で確認する習慣をつけておくべきです。
ぶっちゃけ、最も効率的なのは現在のSiriの弱点を理解して代替手段を用意しておくことです。音声入力が苦手な環境(騒がしいカフェや電車内)では無理にSiriを使わず、手動で操作する。複雑なタスクはShortcutsアプリで事前に設定しておく。こういった「使い分け」ができる人が、結局は最も生産性が高いのです。
そして個人的に一番大切だと思うのは、プライバシーを守りながら便利さを享受するバランス感覚です。Googleとの提携でプライバシーが守られると両社は約束していますが、それでも不安なら、本当に機密性の高い情報はSiriに話さない、ビジネスの重要な意思決定はAIに頼らず自分で判断する、といった線引きが必要でしょう。
結論として、新しいSiriは確かに革命的な進化を遂げますが、それを活かせるかどうかは結局のところあなたの使い方次第です。最新技術に飛びつくのではなく、自分の生活やワークフローに本当に必要な機能を見極めて、段階的に取り入れていく。これが、2026年春からのSiri新時代を賢く生きる方法だと、私は確信しています。
よくある質問
GeminiベースのSiriは日本語にも対応しますか?
はい、対応する予定です。現在のApple Intelligenceは2025年4月から日本語対応を開始しており、Geminiベースの新しいSiriも同様に多言語対応が実装されます。iOS 26.4のリリース時には、日本語を含む主要言語でサービスが提供されるでしょう。
既存のiPhoneでも新しいSiriは使えますか?
Apple Intelligenceの機能を利用するには、A17チップ以降を搭載したデバイスが必要です。つまり、iPhone 15 Pro、iPhone 15 Pro Max、iPhone 16シリーズ以降が対象となります。古いモデルでは、ハードウェアの制約により新しいSiriの高度な機能は利用できません。
GeminiとChatGPTの使い分けはどうなりますか?
基本的には自動で最適なモデルが選択されますが、ユーザーが明示的にChatGPTを指定することも可能です。複雑な推論タスクや文脈理解が必要な場合はGeminiベースのモデルが、特定の専門知識が必要な質問ではChatGPTが使われる可能性があります。設定で優先順位を調整できるようになるかもしれません。
プライバシー設定で何か変更する必要はありますか?
いいえ、特別な設定変更は不要です。Gemini統合はAppleの既存のプライバシーフレームワーク内で動作するため、現在のApple Intelligenceやプライバシー設定がそのまま適用されます。ユーザーデータがGoogleに送信されることはなく、すべての処理はAppleのデバイスまたはPrivate Cloud Compute上で行われます。
年間10億ドルの契約費用はiPhoneの価格に影響しますか?
直接的な価格への影響は限定的と考えられます。10億ドルという金額は巨額に見えますが、Appleの年間売上高(約4000億ドル)と比較すれば0.25%程度です。むしろ、Siriの改善による顧客満足度向上とiPhoneの付加価値向上が、長期的にはAppleの収益に貢献すると予想されます。
GoogleのGeminiアプリとiPhoneのSiriはどう違いますか?
GoogleのGeminiアプリは独立したアプリケーションで、Googleのサービスと直接統合されています。一方、SiriのGemini統合は、Appleのエコシステム内でシームレスに機能し、デバイス上の情報やアプリと深く連携します。また、Siriで使用されるGeminiモデルはAppleがカスタマイズしたバージョンで、標準のGeminiとは異なる可能性があります。
まとめ
AppleとGoogleの歴史的な提携は、スマートフォンAI時代の新たな幕開けを告げています。長年にわたって批判されてきたSiriが、ついに真の意味で「賢いアシスタント」に生まれ変わる可能性が現実のものとなりました。
2026年3月から4月のiOS 26.4リリースによって、私たちは個人コンテキストを理解し、画面の内容を認識し、複雑なタスクを実行できる新しいSiriを手にすることになります。プライバシー保護という核心的な価値は維持されながら、GoogleのGeminiという最先端のAI技術を活用できるという、両社の強みを組み合わせた理想的なソリューションと言えるでしょう。
この変化は、Appleが「すべてを自社で開発する」という伝統的なアプローチから、「最高の技術を提供する」という新しい哲学へのシフトを象徴しています。競争の激しいAI時代において、柔軟性と実用性を重視した賢明な判断だったと、将来振り返った時に評価されるかもしれません。
あなたのiPhoneで「Hey Siri」と呼びかける日常が、この春から大きく変わろうとしています。期待して待ちましょう。


コメント