Google I/O 2018 Keynote Android開発まとめ
|2018年5月8日(現地時刻)に開催されたGoogle I/OのKeynoteからAndroid関係のトピックをお届けします。
※現地通信環境が悪くて画像のアップロードは随時実施しています(一日ぐらいのんびり更新するのでお楽しみください)
5月8日16時51分(現地時刻):Developer Keynoteのまとめを更新しました!
すべての機能に入るGoogle AI
Androidの機能を紹介するまえに現在の技術的なトレンドについて理解しておく必要があります。2017年のGoogle I/OでもAI Firstとして提唱されたAIを活用した取り組みがベースとして存在しています。マシンラーニングをはじめとした画像処理技術の発展により
医療分野では医者の診断を手助けし、病気の早期発見に成果がでてきています。
また人々の生活に近いアクセシビリティ分野でも重なった音声も個人ごとに認識して複数の人物の発話に対応したテキスト認識(文字起こし)、身体的な制限からモールス信号でのコミュニケーションではマシンラーニングで処理することでより正確に判定する支援をしています。
既存のサービスでもAIが便利にしています。Gmailでは文章を理解し、次に言うべき内容を変換候補としてサジェストします(文章の最後でLと打ったらLooking forward to you. までが候補としてでるなど)。Google Photoでは大量の写真を処理した結果を活かし、機械学習で画像を明るくするなど写真加工のサジェスト、背景の色だけ消す、モノクロ写真のカラー化などより複雑な加工をボタンひとつで可能になります。
Google Assistantの進化
さらにもうひとつのAI活用事例としてGoogle Assistantを知っておくとよいでしょう。AndroidでもHomeボタンを長押しして使える質問に答えてくれたり、予定を教えてくれたりと便利なGoogleアシスタントですが、Google I/O 2018では6種類の新しい音声を追加、より自然な発話をサポートしました。生活の中で違和感のない会話を実現できます。
今後は会話の前後を覚えた連続的な会話、複数のアクションに答えるなどより双方向の対話に注力していくことが示されました。これは複雑な文章を理解して、ユーザーが求める答えを提供できるようになることを意味しています。米国でのGoogle Assistantはお願いをする時の「Please」がなくても反応するため丁寧でない(人間味がない機械に対する受け答え)と批判を受けました。家庭環境を大事にする文化的な背景もあり、難色が示された事がありました。これらの問題にも対応して「Please」がないと反応しないようなPretty Please機能を提供しています。リアルの生活を豊かにし、人間らしく付き合っていけるよう配慮しています。
スクリーンを活用したVisually Assistive
高機能化にあわせて提供できる情報量も増えてきます。Google I/O 2018ではAssistant も画像に対応して表示できるスマートディスプレイが紹介されました。このSmart DisplayのプラットフォームにはAndroid Thingsが活用されています。Android ThingsはGoogle I/O 2018にあわせて1.0をリリースしています。
Assistantが電話をかけるOnline booking
Assistantは電話予約にも対応しました。ユーザーのかわりにお店(美容院やレストラン)へ電話して店員と会話し予約を完了してくれます。
今後のAndroidなどのプラットフォームはこれらのユーザーのリアルライフを支援するための基盤となっていきます。
デジタルライフが生活を乗っ取らないように(デジタルデバイスにのめり込まないように)サポートしていきます。
Android P Betaの発表
KeynoteのなかでAndroid PのBetaバージョン提供開始が発表されました。Android Pでの機能は省電力、インテリジェンスな行動支援を実現するための機能強化が中心です。
Adaptive Butteryは省電力のための電力管理機能です。おなじくAdaptive Brightnessという画面の輝度調整機能も紹介されています。どちらもAIによる学習と最適化が行われています。
アプリケーションに対してはApp ActionsとSlicesを紹介しました。
App Actionsはactions.xmlにて定義した内容をもとにデバイスで対応したActionを実行できます。SlicesはRemoteViewの高機能版ともいえるデバイス内検索を強化した機能です。どちらもAI連携を視野にいれた機能で、アプリのできることを可視化し、適切なタイミングでユーザーに提示します。アプリケーションとのエンゲージメントを強化し、ユーザーがほしいものをすぐに提供できるようにしていくという意図があり、アプリ開発者はコア機能を認識し、適切な形でユーザーへ提供すること(提供できる設計にしておくこと)が求められます。
マシンラーニングを活用するMLKit
MLKitはマシンラーニングによる環境認識をパッケージ化したSDKです。マシンラーニングを使って画像のラベリングやテキスト認識、顔認識を実現できる機能群です。TensorFlow Liteをベースにしていますが、AndroidだけでなくiOSでも利用できるマルチプラットフォーム化された取り組みです。
AIとの融合が進むAndroid P
Android PではAIの活用を前提とした変更が多数入っています。アプリの利用統計、AppTimerといったアプリの利用時間を制限する機能もリアルライフとデジタルライフのバランスを取るための仕組みといえます。ずっとノーティフィケーションを気にするのではなく、一度みれば全体を把握できるようにスマートに情報をまとめることでデジタルとうまくやっていく(Digital wellbeing)方法を模索しています。
AIの進化を背景に、Android Pの新機能は消費電力の最適化といった基本機能の強化以外に検索やアクションなどAIのためのインターフェイスが追加されています。人々のライフスタイルを反映する(ノーティフィケーションなどの)新機能を使いこなすことでアプリの価値をより高められます。