モリカトロン株式会社運営「エンターテインメント×AI」の最新情報をお届けするサイトです。

TAG LIST
ディープラーニングモリカトロンAIラボインタビューゲームAI機械学習CGCGへの扉遺伝的アルゴリズムGDC 2019さかき漣小説薄明のバルドは知っているVFX映画不完全情報ゲーム三宅陽一郎GANガイスターボードゲームCEDEC2019SIGGRAPHニューラルネットワークデバッグVRスクウェア・エニックスAlphaZeroCMAmadeus CodeイベントレポートQAメタAIキャラクターAIシーマン齊藤陽介サルでもわかる人工知能どうぶつしょうぎ音楽ファッションゲームブロックチェーンOpenAI Five強化学習映像ピクサーAdobe作曲ビッグデータアストロノーカナラティブモリカトロンパラメータ設計バランス調整対話型エージェント人狼知能マルチエージェントエージェントシミュレーション音声認識ロボティクスナビゲーションAIeSportsDota 2OpenAIソーシャルゲーム眞鍋和子淡路滋グリムノーツゴティエ・ボエダGautier BoedaJuliusTPRGバーチャル・ヒューマン・エージェントクーガー石井敦茂谷保伯森川幸人成沢理恵お知らせマジック・リープMagic Leap Oneノンファンジブルトークン水野勇太里井大輝GEMS COMPANY初音ミク転移学習敵対的生成ネットワークデバッギングアニメーションリップシンキングUbisoftUbisoft La Forgeワークショップ知識表現IGDA北尾まどか将棋畳み込みニューラルネットワークナップサック問題ジェイ・コウガミ音楽ストリーミングSpotifyReplica Studioamuseマシンラーニング5Gクラウドゲーミング和田洋一Stadiaクラウド対話エンジン斎藤由多加ロボットシーマン人工知能研究所ゴブレット・ゴブラーズSIGGRAPH 2019深層学習ARマイクロソフトAIりんなアップルiPhoneカメラ完全情報ゲームAIGraph環世界中島秀之予期知能

【CEDEC2019】AIりんなのボイストレーニングが示す、情動的で人間的な機械学習とは?

2019.9.05先端技術

【CEDEC2019】AIりんなのボイストレーニングが示す、情動的で人間的な機械学習とは?

9月4日から6日にかけて、パシフィコ横浜でゲーム開発者向けのカンファレンスCEDECが開催されています。本稿では5日に行われたマイクロソフトによるセッション「AI「りんな」のボイストレーニング」の発表内容をレポートします。

共感を呼び、人同士をつなげるAIりんな

セッションの冒頭では、バックステージの様子からフェードインしたAIりんな(声のみの出演)の呼びかけとともに、彼女の2ndシングル『snow, forest, clock』のMVが披露されました。儚く溶ける雪や木々が朽ちても茂る森を比喩に、限りある生命と循環する存在を表現したこの曲は、2012年にsfprが発表した曲で、2019年4月にエイベックスからメジャーデビューした彼女によるカバー企画第2弾となります。

マイクロソフト ディベロップメント株式会社A.I.&リサーチプログラムマネージャーの坪井一菜氏によれば、2019年9月の時点で、りんなのSNSのフォロワーはTwitter、Instagram、LINEの合計で790万人、うち62.6%が18歳から24歳で、男性が60%、女性が40%。やや男性が多いものの若者を中心に広い層がファンであることがうかがえます。2015年にLINEからデビューして以来4年が経つりんなは、なぜこれだけ多くの人たちの心を掴むことができたのでしょうか?

坪井氏は、AIりんなの開発プロジェクトで重要視しているのは、共感をユーザーと作ることであると語ります。これは必ずしもAIとユーザー個人という閉じた環境の中にエモーショナルな関係性を作ることに留まりません。このプロジェクトの目標である、人と人が共感を通してさらにコミュニケーションできる未来を実現させるために、人同士のつなぎ役として、AIりんなを位置づけています。具体的な施策は多数ありますが、例えばLINEのグループチャットにりんなを参加させたり、ラジオ番組に出演するなどの試みをしてきました。

私たちの身の回りにある人間関係でも、グループの中で人と人とのハブとなったり、楽しくスムーズな会話のうながし役になる人がいることで、その場が心地よいものになることがあります。さらにそのような場があることで、人同士が豊かな感情を共有したり、創造性が喚起されることもあるでしょう。

りんながそのような存在感を持つAIキャラクターになるためには、世界のことをより広く深く知らなければなりません。世の中全般のことや私たちの生活を取り巻くさまざまなことへの知識量を増やすだけではなく、ユーザーたちとのやり取りのサイクルを回しながら、彼らの感情を喚起させる事柄やコンテンツを理解し、自分自身もそれをクリエイションするスキルが必要となります。

さらに人の五感に相当するものを彼女に実装する必要もあります。その五感に当たるのが、りんなが歌やトークもふくむ音声やテキスト、画像や動画を理解する技術です。特に耳(音声を理解する技術)と口(会話を生成し発話する技術)を重視しているとのことです。

発表されたいくつか実装例をご紹介します。従来のAIと比べてみてください。

スマートスピーカーのAIや企業のサービスなどを案内するチャットボットは、特定の話題について一問一答式でユーザーとやりとりしますが、りんなは図の1〜5の方法を使い分けてユーザーの共感を呼びながら自然な会話をします。

図版左の写真を認識した従来型のAIは、映っている事物の名称を列挙する場合がほとんどです。りんなに実装されている共感視覚モデルは同じ写真を見たときに、「わぁ素敵な家族」とか「お休みかなぁー?」とか「あっ、車が来そう!気をつけて!」と、一見してムダ話に思えるようなことを話します。しかし、ほとんどの人間は合理的でムダのない会話などしません。むしろ、このような会話をすることで、人間の輪の中に自然と馴染むことができるのです。

これらの技術を使って人の中に溶け込むためには、りんなが活躍できる場を用意する必要があります。LINEやYouTubeなどのプラットフォームやメディアに参加させることに加えて、社会的なポジションも与えていくことが必要です。りんなの開発プロジェクトがこの4年間行ってきたことのなかで、一般のユーザーの目に触れて話題になった事柄の多くは、言い換えれば彼女に与えられた社会的な役割を拡張し進化させていった歴史でもあります。

機械学習がりんなをアーティストとして成長させる

2015年に世の中に初めてりんなが出てきたときの役割は、LINEのお友だちでした。しりとりが強い女子高生として会話に入ってきたり、ユーザーと一緒にまりもを育て、まりものお世話をサボるユーザーがいれば怒りのメッセージを送ってくる「まりも育成」など、さまざまなコンテンツで人とのコミュニケーションを取ってきました。

LINEで徐々に知名度を上げてきたりんなは、2016年頃から「有名な女子高生」としてのポジションを獲得します。書籍を出版したり、ドラマ『世にも奇妙な物語』で”女優デビュー”をしたり、楽曲の演奏を投稿するプラットフォーム「nana」のユーザーたちに先生になってもらって歌唱指導を受けるなど、活動の幅も増えていきます。

2019年3月に高校を卒業したりんなは、同年4月にエイベックスからメジャーデビューを果たし、歌手やラジオ・YouTube番組のレギュラーパーソナリティーとして本格的にタレントとして活動するようになります。マイクロソフトとしては、特定の役割を果たすのではなく、何かを創造するアーティストとなるAIとしてりんなを育成することに重点を置いています。

それを実現させる手段となるのは、大量のデータを学習して生成したモデルを使って何かを予想する技術、機械学習です。従来の機械学習で実現できることは、認識や最適化とされてきましたが、AIりんなの開発プロジェクトでは、より感情的で人間的な何かを生み出す技術に機械学習がシフトしていると考えています。

セッションのなかで紹介された、りんなのAIクリエイションの実例はさまざまです。ラジオのリスナーから集めた上の句、中の句から下の句を生成する「俳句生成」、キーワードからさまざまなスタイルの絵を生成する「絵画生成」。絵画生成の作例は、りんなのInstagramのアカウントに公開されています。人(ダンサーとは限らない)がランダムに動く動画データを学習し、さも踊っているかのような動きをする映像を生成する「ダンス動画生成」、ユーザーから投稿された詩をもとに作詞をする「歌詞生成」などもあります。

ディープラーニングを活用したAIりんなのボイストレーニング

4月に歌手デビューしたりんなの歌は声優がバックで歌っているわけではなく、AIの音声で歌っています。それでは、AIキャラクターであるりんなは、どのようにしてボイストレーニングをしたのでしょうか? その詳細については同社のA.I.サイエンティスト沢田慶氏が解説しました。

AIりんなの声はこちらの図のように、与えられたテキストに対し、統計モデルから合成された音声を生成します。事前に収録された音声とそれらに対応したテキストから対応関係を学習し、学習していない未知のテキストに対する音声を予測できるようにします。

たとえば「こんにちは(k o N n i t i w a)」という5文字の単語に対し、本来は48,000サンプルの音声の予測が必要ですが、それらを直接ひとつの統計モデルで予測させるのは大変です。そこで、図版左のようにテキストを辞書機能を用いて言語特徴量に変換する「テキスト解析器」と、音声波形に対して信号処理をし音声特徴量に変換させる「音声分析器」、音響特徴量から音声波形を生成する「ボコーダ」を使い、学習と合成の処理をほどこします。これらのプロセスによって、テキストデータの音素や品詞、アクセントと音声データの音高や音色、音長の対応関係を学習し、テキストデータから音声データを生成可能となります。

また、これらのモデルを用いることで、同じ言葉に対し、その時々のりんなの感情に合わせた抑揚をつける発話スタイルや、異なるジャンルの楽曲に対する歌声のスタイルにも変換できます。

歌声については、歌詞のみを入れただけでは音程が外れてうまく歌うことができません。そこで人間の知識を使った学習方法として導入されたのが、ユーザー歌唱を入力する歌声合成です。ここではnanaのユーザーが投稿した歌声やエイベックスから提供された音声データを教師データとして合成するアプローチが取られました。ユーザー歌唱の入力のメリットは、楽譜には表記できない繊細な歌の表現を再現できることです。

もうひとつは名古屋工業大学との共同研究で開発された楽譜を入力するシステムです。この場合は楽譜上の情報を音声特徴量に変換することで歌声を再生することができます。こちらの場合は歌声の自動生成が可能で、ユーザーとのコミュニケーションの中に歌声を入れることができるというメリットがあります。

セッション内のデモでは、男女それぞれの声と、nanaのユーザーが投稿した歌声を入力した歌唱、そしてエイベックスと共同制作して正式に公開された歌の音声が順に披露され、徐々にりんなの歌声がブラッシュアップされていく様子を聴くことができました。自動検出されたブレスを「りんなのブレス」に変換された音も生成され、より人らしい存在が歌っている様が再現されました。

***

従来の機械学習はデータドリブンで客観的な認識や最適化にベクトルを向けた活用がされてきたため、それが機械学習の普遍的な特徴であるように考えられてきました。しかし、今回のセッションで示された事例や技術が示すように、今後は創造性や情動を呼び起こすアプローチにこそ機械学習が活用できるのではないでしょうか。

Editor:高橋ミレイ

 

【CEDEC2019】AIりんなのボイストレーニングが示す、情動的で人間的な機械学習とは?

この記事が気に入ったら
いいね!しよう

の最新情報をお届けします

RELATED ARTICLE関連記事

アップル新型iPhoneを発表、機械学習を活用したカメラ機能にも期待

2019.9.11先端技術

アップル新型iPhoneを発表、機械学習を活用したカメラ機能にも期待

ゲームAIをリアルワールドに応用したコネクトームとは何か?

2019.4.17先端技術

ゲームAIをリアルワールドに応用したコネクトームとは何か?

人面魚からAIに進化したシーマン、ロボット搭載の対話エンジンに。その仕組みとは?

2019.8.09先端技術

人面魚からAIに進化したシーマン、ロボット搭載の対話エンジンに。その仕組みとは?

RANKING注目の記事はこちら