モリカトロン株式会社運営「エンターテインメント×AI」の最新情報をお届けするサイトです。

TAG LIST
ディープラーニング機械学習モリカトロンAIラボインタビューCEDEC2019三宅陽一郎ゲームAICGへの扉小説CGGAN遺伝的アルゴリズムGDC 2019デバッグスクウェア・エニックスさかき漣薄明のバルドは知っているファッションVFX映画イベントレポートQA不完全情報ゲームガイスターボードゲームSIGGRAPHニューラルネットワークVR音楽ロボットAlphaZeroルールベースシナリオ強化学習CMAmadeus CodeメタAIキャラクターAIナビゲーションAIシーマン齊藤陽介サルでもわかる人工知能ワークショップIGDAどうぶつしょうぎマシンラーニング深層学習藤澤仁宮路洋一toioゲームブロックチェーンOpenAI Five映像ピクサーAdobe作曲ビッグデータアストロノーカナラティブモリカトロンパラメータ設計バランス調整対話型エージェント人狼知能マルチエージェントエージェントシミュレーション音声認識ロボティクスeSportsDota 2OpenAIソーシャルゲーム眞鍋和子淡路滋グリムノーツゴティエ・ボエダGautier BoedaJuliusTPRGバーチャル・ヒューマン・エージェントクーガー石井敦茂谷保伯森川幸人成沢理恵お知らせマジック・リープMagic Leap Oneノンファンジブルトークン水野勇太里井大輝GEMS COMPANY初音ミク転移学習敵対的生成ネットワークデバッギングアニメーションリップシンキングUbisoftUbisoft La Forge知識表現北尾まどか将棋畳み込みニューラルネットワークナップサック問題ジェイ・コウガミ音楽ストリーミングSpotifyReplica Studioamuse5Gクラウドゲーミング和田洋一Stadiaクラウド対話エンジン斎藤由多加シーマン人工知能研究所ゴブレット・ゴブラーズSIGGRAPH 2019ARマイクロソフトAIりんなアップルiPhoneカメラ完全情報ゲームAIGraph環世界中島秀之予期知能ウェイポイントパス検索ドラゴンクエストPAIR画像認識AIと倫理アルスエレクトロニカ2019DeNA逆転オセロニア長谷洋平奥村エルネスト純齋藤精一高橋智隆ロボユニ泉幸典ロボコレ2019アートぎゅわんぶらあ自己中心派意思決定モデルウロチョロス理化学研究所教育

【GDC 2019】没入感の追求がたどり着く先は、自然言語処理によるAIとの対話

2019.4.17ゲーム

【GDC 2019】没入感の追求がたどり着く先は、自然言語処理によるAIとの対話

アップルのSiriやマイクロソフトのCortana、アマゾンのAlexaといったAIアシスタントがスマートフォンやスマートスピーカーとして人々の日常に溶け込んだ今、音声認識という技術も人工知能と同様に身近な存在となりました。その中枢をなしている研究分野が自然言語処理です。

中でもコンピュータに自然言語を理解、もしくは意図を抽出させることを目的とした自然言語理解は、音声アクティベーションやコンテンツ解析、ニュース収集といった商業的な関心が高まる一方で、コンピュータビジョンやチューリングテストと並ぶAI完全問題であると言われています。

それでもアプリや家電を起動させたり、ニュース記事を音声出力で読み上げるといった技術的に限られた条件下では、少しずつではありますが自然言語理解が実用化されつつあります。一方でグラフィック処理技術の発展にともない、没入感という言葉が定着したVR/AR/MRの領域もふくむビデオゲームにおける、音声認識に基づいたインターフェイスの開発は意外にも進んでいませんでした。

音声認識を使ったゲームの歴史と技術的な限界

本格的に音声認識がゲームソフトに組み込まれた最初の例は、1998年の年末にNINTENDO64向けに発売された『ピカチュウげんきでちゅう』(1998年、任天堂)です。ヘッドセット型のマイクを使ってプレイヤーがピカチュウと意思疎通できる世界初の音声認識ソフトとして大々的に売り出されましたが、実際に認識できるのは特定の単語のみで、話し言葉を全文認識させるにはほど遠いものでした。

そのおよそ半年後、音声認識を使った3D育成シミュレーションゲーム『シーマン』(1999年、ビバリウム)が、ドリームキャスト向けに発売されました。コントローラにマイクデバイスを装着することでペットに直接話しかけられるゲームデザインが特徴で、人語を解する人面魚のシーマンはプレイヤーの年齢や性別、職業といった個人情報を次々と覚えていきます。

ちなみに当時は、シーマンの口の悪さや気難しい性格がやたら憎たらしいと話題になりました。これは音声認識における精度の低さをプレイヤー側に悟らせることなく、できるだけ短くはっきりと話しかける努力を無意識に仕向ける工夫だったと言われています。プレイヤーの言葉が上手く聞き取れずにへそを曲げてしまうシーマンを演出することで、音声認識の限界から生じる失敗の責任をユーザー側に転嫁するという革新的なデザインでした。

その後、2003年には音声認識を活用したPlayStation 2用アクションゲーム『オペレーターズサイド』(2003年、ソニー・コンピュータエンタテインメント)が登場します。コミュニケーションツールや育成ゲームといったそれまでのトレンドとは打って変わって、プレイヤーがオペレーターとなってヒロインのキャラクターに音声で指示を送ることで、移動・探索・戦闘のすべてをこなすアクション性が話題となりました。

しかし、短い単語を組み合わせた限定的な音声入力にしか対応できず、やはりプレイヤーがヒロインとの意思疎通に感情移入できるようなインターフェイスには至っていません。また、自然言語の認識率の低さは、迅速かつ的確な音声指示が要求される敵との戦闘状況において最大の足枷となり、ストレスを感じるプレイヤーは少なくなかったようです。

このほか、Xbox専用の美少女アンドロイド育成ゲーム『N.U.D.E.@ Natural Ultimate Digital Experiment』(2003年、マイクロソフト)や、ゲームキューブ向け人海戦術落城アクション『大玉』(2006年、任天堂)、PlayStation Portable専用の通訳ゲームソフト『TALKMAN』(2005年、ソニー・コンピュータエンタテインメント)など、2000年代には音声認識を活用したビデオゲームが複数登場しましたが、業界全体を巻き込むような技術革新には至りませんでした。

没入感の追求にはAIとの対話が不可欠

メタAIや自立型エージェントをはじめ、近年のゲーム業界ではAI技術がめざましい進化を遂げています。人々が没入感という新たな価値を追求していく上で、音声認識を活用したAIとのインタラクションに回帰することは自然な流れだといえるでしょう。そんな長らく停滞していたといっても過言ではない同分野を切り拓こうとしているのが、スクウェア・エニックスのテクノロジー推進部で自然言語処理によるAIとのコミュニケーションを研究するゴティエ・ボエダ氏です。

2019年3月にサンフランシスコで開催された「Game Developers Conference 2019」にて、ボエダ氏は「NPCs Have Feelings Too: Verbal Interactions with Emotional Character AI」と「Enhanced Immersivity: Using Speech Recognition for More Natural Player AI Interactions」というセッションに登壇。ゲームキャラクターとの自然言語コミュニケーションをとおして、特定状況下における問題解決を目指す音声認識技術のデモンストレーションを披露しました。その内容は、未知の惑星に墜落したプレイヤーが原住民である宇宙人に話しかけて、脱出用シャトルの修理を手伝ってもらうというもの。前述の『オペレーターズサイド』と同様に、プレイヤーは音声指示のみでタスクを完了しなければなりません。

特定の単語や短い言葉の組み合わせにしか反応しなかった過去の音声認識ゲームと決定的に異なるのは、言語処理におけるパイプラインの設計です。通常、音声認識技術は人間の音声を特定の波形として認識することで環境音と区別し、その情報をテキストデータへと変換します。これを自然言語処理によって単語や文章として読み取り、情報要約にかけることで意味を構築していくのですが、ボエダ氏の技術デモではさらに言語の抽象化処理を担うパイプラインを設けています。

たとえば、「巨大なリンゴを拾ってくれ」とキャラクターに指示した場合、AIは「拾う」「巨大な」「リンゴ」といった具合に入力情報を動詞や修飾語、目的語に分解します。この際、「拾う」や「巨大な」という言葉を別の同義語へ自動的に変換することで、同じ意味でも言い回しの異なる自然言語の曖昧さに対応しています。この例の場合、AIは「大きなリンゴを取る」という文章として解釈します。このプロセスを抽象化パイプラインと呼びます。

この抽象化処理には、プリンストン大学の認知科学研究所が運営する概念辞書「WordNet」によって分類された同義語グループ「Synset」が使われています。また、自然言語のテキストデータ化には、オープンソースの音声認識エンジン「Julius」を採用しています。「Julius」は英語と日本語をふくめた多言語に対応しており、数万語彙の連続音声認識をリアルタイムで実行できる軽量さが特徴です。このエンジン側で対応言語を変更することで、ゲームシステムは複数言語の音声認識を同時に実現できます。

一連の音声認識プロセスの最大の利点は、プレイヤーが入力した言語情報に応じてゲームメカニクスの処理を変更するのではなく、入力情報を抽象化するパイプラインを経由させることによって、ゲームメカニクスの処理に沿ったインプットへと最適化できることです。これにより多言語のローカライズが容易になることはもちろん、プレイヤーは可能な限り自然な言葉遣いや言い回しでAIキャラクターと意思疎通できるようになります。

自然言語の曖昧さが生む障壁

それでも言葉の曖昧さから生じる自然言語処理の課題は尽きません。日本語における一例として、音節の区切りによって音声情報が複数の意味に解釈されるケースが挙げられます。たとえば「これをして」という指示と「これ押して」という指示は、後者の助詞が抜けていることで音声データとしては完全に同じ波形と認識されてしまいます。当てはまる目的語によっては指示の内容をまったく理解できなくなってしまうでしょう。

このほか、「これ」「あれ」「そこ」といった抽象代名詞や、「(目的語)の後ろ」や「(目的語)の左側」などの相対的な位置情報も、自然言語処理における課題です。抽象代名詞に関しては、入力された単語のタイムスタンプを記憶することで、どの目的語を指しているかをある程度は特定できます。

相対的な位置情報については、オブジェクトの性質や観測者の視点によって事情が異なります。「テーブルの後ろ」といっても、大抵のテーブルには前も後ろもないため、ほかに情報がない場合はどこを指しているのかが曖昧になってしまいます。一方で「テレビの左」という場合には、例えば観測者がディスプレイ側を正面と認識しているのであれば、主観的にはどこを指しているのかが明確になります。

ただし、こうした位置情報の認識は、音声認識による自然言語処理のみならず、VRヘッドセットなどに搭載されているアイトラッキングによる視線情報などからも補完できるため、必ずしも大きな障壁にはならないといえるでしょう。

このように、最新の音声認識エンジンや膨大なデータベースからなる抽象化パイプラインを用いても、自然言語は曖昧さが残るため、AIがロジックの牢獄に囚われてしまうケースは後を絶ちません。そうした状況下では、どうしてもエージェント側が「お前は何を言っているんだ」という意思表示のフィードバックを生成する必要があります。20年前にプレイヤーを驚愕させたシーマンの悪態は、まさにこのフィードバックの役割を担っていたわけです。

今後、ゲームAIの研究・開発において自然言語処理の技術がさらに発展すれば、シーマンが一方的にプレイヤーの個人情報を収集しては哲学的なウンチクを垂れ流すだけでなく、毒舌の人面魚とラップバトルを繰り広げることも夢ではなくなるかもしれません。また、オペレーターとしてアクションゲームのヒロインを導く際にも、カーナビに話しかけているようなぎこちなさから虚無感が生まれることもなくなるかもしれません。さらには、ロールプレイングゲームで仲間のキャラクターに魔法やアイテムを使わせる際、わざわざキーボードやコントローラに指を伸ばさなくてもいい時代が来るのかもしれません。

Writer:Ritsuko Kawai

【GDC 2019】没入感の追求がたどり着く先は、自然言語処理によるAIとの対話

この記事が気に入ったら
いいね!しよう

の最新情報をお届けします

RELATED ARTICLE関連記事

【CEDEC2019】中島秀之氏 基調講演:環境との相互作用を取り込む予期知能が、機械学習の課題を解決に導く

2019.9.20ゲーム

【CEDEC2019】中島秀之氏 基調講演:環境との相互作用を取り込む予期知能が...

【CEDEC2019】汎用型ボードゲームAIの開発に向けたモリカトロンの挑戦

2019.9.17ゲーム

【CEDEC2019】汎用型ボードゲームAIの開発に向けたモリカトロンの挑戦

発想より技術が先行する時代におけるゲームAIの役割:『ゲームAI技術入門』刊行記念特別対談レポート(後編)

2019.11.20ゲーム

発想より技術が先行する時代におけるゲームAIの役割:『ゲームAI技術入門』刊行記...

RANKING注目の記事はこちら