Appleは6月4日からカリフォルニア州サンノゼで世界開発者会議「WWDC 2018」を開催した。基調講演での最新ソフトウエアの発表を皮切りに、1週間にわたって新しい機能やAPIなどがアプリ開発者に紹介された。


 今回の基調講演では、ハードウエアに関する発表が一切なかった。それは織り込み済みだったが、開発者から聞かれたのは新しいAPIが非常に少なかったということだ。


 しかし、そのことをもって「Appleはソフトウエアによるイノベーションを諦めた」と考えるのは早計だ。Appleはテクノロジーと人、スマートフォンとアプリの関係を変化させようとしており、それを新機能の追加以上に重視している──そう筆者は見ている。

古くて新しい「ショートカット」

 現在のシリコンバレーでは人工知能(AI)の開発競争が激化しており、特にGoogleがAI開発で凄みを見せたことは別稿「GoogleのAI開発アプローチを探る」で紹介した通りだ。もちろん、Appleもこの開発競争に巻き込まれていくことになり、普段は秘密主義を貫く同社にしては珍しく、機械学習に関する研究成果をまとめた論文をウェブサイトで発表している。


 こうした背景を踏まえてWWDC 2018を振り返ってみると、Appleが示した人工知能アシスタント「Siri」の進化の手法と方向が、今回の最も大きなトピックだと考えられる。Appleは、GoogleやAmazonが取り組む中央集権的発展とは異なるアプローチを明確に示したのだ。


 そのキーワードとなったのが「Siri Shortcuts」である。


 「ショートカット」は、コンピュータを使ってきた人には身近な言葉だろう。デスクトップやドックといった目につきやすい場所にアイコンを置き、必要なアプリをすぐ開けるようにしたり、キーボードの組み合わせによって特定の機能を呼び出したりするなど、操作を効率化するための手法を指す。


 Appleは次期OS「iOS 12」「watchOS 5」で、ユーザーがショートカットを作成できる機能を用意した。このことは、PCで実現しているショートカットとは別の意味を帯びる。


 スマートフォンは、もはや画面を通して情報を摂取するだけのデバイスではなくなった。経路検索やスマート家電の操作、友人とのコミュニケーション、買い物に出前、健康管理など、画面の先の人やシステムと対話するようにして物事を進めるためのデバイスになってきている。


 そんなiPhoneにショートカットが用意されれば、「日常生活のショートカット」が可能になるだろう。


 自分のためのショートカットを、声でSiriから呼び出せるようになる──。これがiOS 12の目玉機能だ。

最も効率的な「人工知能の育て方」だった

 ここまでご覧になった読者の中には、「ショートカットを作るのが人間ならば、iPhoneの未来は、人工知能に頼らない発展を目指しているのではないか」と思う方がいるかもしれない。しかし、事実と考えを積み重ねていくと、どうもそうではなさそうだ。


 確かに、ショートカットを作るのは人間である。しかしAppleは、ショートカットを見つけ出す役割をSiriの重要な任務としたのだ。人工知能がこうした役割にうってつけであることは、先に紹介したGoogleのセッションでも指摘されている。


 現在のAIは、人の行動の「まねごと」によって賢くなっている。画像認識・音声認識や碁のようなゲームで人工知能が人以上に能力を発揮できているのは、ルールとデータが存在しているからだ。


 Siriは私たちのiPhoneの利用方法を観察しながら、いつ、どこで、何をしているのかといった情報を蓄積している。今までもSiriはこうした観察をしてきたが、iOS 12では観察結果からパターンを見出し、これを「ショートカットの候補」として提案するようにしたのだ。


 人間が繰り返す行動からショートカットを見出すために、機能を提案して学習しようとするのである。さらに、ショートカットを呼び出すためのフレーズも学習していく。


 iOS 12以降、iPhoneユーザーとSiriは日常を振り返る対話を繰り返すようになるだろう。コミュニケーションを重ねることによってSiriはますます賢くなり、ユーザーはその利便性を享受していく──。Appleは私たちとiPhoneの間で、そんなコミュニケーションを生み出そうとしているのだ。

本記事は、日経BP総研とSansan株式会社が共同で企画・制作した記事です。
© 2019 Nikkei Business Publications, Inc. / Sansan, Inc.