モリカトロン株式会社運営「エンターテインメント×AI」の最新情報をお届けするサイトです。

TAG LIST
CG機械学習CGへの扉ディープラーニング安藤幸央GAN月刊エンタメAIニュース河合律子OpenAI音楽NVIDIAニューラルネットワーク強化学習三宅陽一郎吉本幸記Facebook人工知能学会大内孝子QA敵対的生成ネットワーク自然言語処理キャラクターAIスクウェア・エニックス森川幸人モリカトロンAIラボインタビュールールベースGoogleDeepMindGPT-3シナリオAIと倫理グーグル映画NFTStyleGAN自動生成倫理デバッグゲームプレイAIメタAI深層学習マイクロソフトCEDEC2019アートDALL-E2プロシージャルSIGGRAPH遺伝的アルゴリズムDALL-Eロボットビヘイビア・ツリーCEDEC2021CEDEC2020ゲームAIデジタルツインメタバース不完全情報ゲームVRナビゲーションAINPC畳み込みニューラルネットワークCLIPテキスト画像生成ディープフェイクGDC 2021JSAI2022VFXGDC 2019マルチエージェントCEDEC2022ボードゲーム画像生成ファッション懐ゲーから辿るゲームAI技術史toioCNNAdobeテストプレイモリカトロンUnityAIアート小説鴫原盛之HTN階層型タスクネットワークJSAI2020TensorFlowBERTMicrosoftイベントレポート対話型エージェントStable Diffusion著作権水野勇太アニメーションGenvid TechnologiesガイスターStyleGAN2GTC2022教育ソニーJSAI2021スポーツ研究シムピープルマンガ汎用人工知能マーケティングGDC SummerインタビューバーチャルヒューマンブロックチェーンMidjourneyアストロノーカキャリアNVIDIA OmniverseeスポーツAmazonロボティクスeSportsDQNBLUE PROTOCOLシーマンMinecraftアバターOmniverseUbisoftメタ画像生成AIAlphaZeroTransformerGPT-2AIりんなカメラ環世界中島秀之哲学理化学研究所DARPAドローンシムシティImagenバイアスMCS-AI動的連携モデルモーションキャプチャーTEZUKA2020AI美空ひばり手塚治虫バンダイナムコ研究所スパーシャルAIElectronic ArtsメタデータLEFT 4 DEAD通しプレイOpenAI Five本間翔太CMピクサープラチナエッグイーサリアム作曲ボエダ・ゴティエビッグデータ中嶋謙互Amadeus Codeデータ分析Microsoft AzureMILEナラティブアーケードゲームOmniverse ReplicatorWCCFレコメンドシステムNVIDIA DRIVE SimWORLD CLUB Champion FootballNVIDIA Isaac Simセガ柏田知大軍事サイバーエージェント田邊雅彦トレーディングカードトレカ音声認識PyTorch眞鍋和子バンダイナムコスタジオaibo合成音声Meta齊藤陽介マインクラフトお知らせMagic Leap Oneチャットボットサルでもわかる人工知能VAE3DCGリップシンキングUbisoft La Forge自動運転車ワークショップ知識表現ウォッチドッグス レギオンIGDA秋期GTC2022どうぶつしょうぎEpic Gamesジェイ・コウガミ音楽ストリーミングMITAIロボ「迷キュー」に挑戦野々下裕子徳井直生マシンラーニング5GRival Peakクラウド対話エンジン斎藤由多加リトル・コンピュータ・ピープルコンピューティショナル・フォトグラフィーゴブレット・ゴブラーズ絵画rinnaシミュレーションデジタルヒューマン完全情報ゲーム坂本洋典釜屋憲彦ウェイポイントパス検索対談藤澤仁生物学GTC 2022画像認識SiemensStyleCLIPDeNA長谷洋平masumi toyota宮路洋一OpenSeaGDC 2022TextWorldSIGGRAPH ASIAEarth-2MagentaSFELYZA PencilGTC2021CycleGANデータマイニングNetHackはこだて未来大学キャラクターモーションフェイクニュースエージェントRPGSIGGRAPH 2022AIボイスアクターNVIDIA CanvasGPUALifeZork人工生命オルタナティヴ・マシンサウンドスケープASBS栗原聡ぱいどんテキスト生成不気味の谷ナビゲーションメッシュ松井俊浩ELYZAフルコトELYZA DIGEST3D音声合成西成活裕Apex LegendsELIZA群衆マネジメントNinjaコンピュータRPGライブビジネスアップルタウン物語新型コロナKELDIC周済涛メロディ言語清田陽司ゲームTENTUPLAYサイバネティックスMARVEL Future FightAstro人工知能史タイムラプスEgo4DAI哲学マップバスキア星新一日経イノベーション・ラボStyleGAN-XL敵対的強化学習StyleGAN3階層型強化学習GOSU Data LabGANimatorWANNGOSU Voice AssistantVoLux-GAN竹内将SenpAI.GGProjected GANMobalyticsSelf-Distilled StyleGAN馬淵浩希Cygamesニューラルレンダリング岡島学AWS SagemakerPLATO映像セリア・ホデント形態素解析frame.ioUXAWS LambdaFoodly誤字検出森山和道認知科学中川友紀子ゲームデザインSentencePieceアールティLUMINOUS ENGINELuminous ProductionsBlenderBot 3パターン・ランゲージ竹村也哉Meta AIちょまどマーク・ザッカーバーグGOAPWACULAdobe MAX 2021自動翻訳模倣学習AIライティングOmniverse AvatarAIのべりすとFPSNVIDIA RivaQuillBotマルコフ決定過程NVIDIA MegatronCopysmithNVIDIA MerlinJasperスタンフォード大学NVIDIA Metropolisパラメータ設計テニスバランス調整協調フィルタリング人狼知能テキサス大学AlphaDogfight TrialsAI Messenger VoicebotエージェントシミュレーションOpenAI CodexStarCraft IIHyperStyleMax CooperFuture of Life InstituteRendering with StyleメディアアートIntelDisney類家利直LAIKADisneyリサーチヴィトゲンシュタインRotomationGauGAN論理哲学論考GauGAN2京都芸術大学ドラゴンクエストライバルズ画像言語表現モデル不確定ゲームSIGGRAPH ASIA 2021PromptBaseDota 2モンテカルロ木探索ディズニーリサーチMitsuba2バンダイナムコネクサスソーシャルゲームEmbeddingワイツマン科学研究所ユーザーレビューGTC2020CG衣装mimicNVIDIA MAXINEVRファッションBaidu淡路滋ビデオ会議ArtflowERNIE-ViLGグリムノーツEponym古文書ゴティエ・ボエダ音声クローニング凸版印刷Gautier Boeda階層的クラスタリングGopherAI-OCR画像判定JuliusSIE鑑定ラベル付けTPRGOxia Palus大澤博隆バーチャル・ヒューマン・エージェントtoio SDK for UnityArt RecognitionSFプロトタイピングクーガー田中章愛実況パワフルサッカー石井敦銭起揚NHC 2021桃太郎電鉄茂谷保伯池田利夫桃鉄GDMC新刊案内パワサカマーベル・シネマティック・ユニバースコナミデジタルエンタテインメント成沢理恵MITメディアラボMCU岩倉宏介アベンジャーズPPOマジック・リープDigital DomainMachine Learning Project CanvasMagendaMasquerade2.0国立情報学研究所ノンファンジブルトークンDDSPフェイシャルキャプチャー石川冬樹サッカーモリカトロン開発者インタビュースパコン里井大輝Kaggle宮本茂則スーパーコンピュータバスケットボール山田暉松岡 聡Assassin’s Creed OriginsAI会話ジェネレーターTSUBAME 1.0Sea of ThievesTSUBAME 2.0GEMS COMPANYmonoAI technologyLSTMABCIモリカトロンAIソリューション富岳初音ミクOculusコード生成AISociety 5.0転移学習テストAlphaCode夏の電脳甲子園Baldur's Gate 3Codeforces座談会Candy Crush Saga自己増強型AItext-to-imageSIGGRAPH ASIA 2020COLMAPtext-to-3DADOPNVIDIA GET3DデバッギングBigGANGANverse3DDreamFusionMaterialGANRNNグランツーリスモSPORTAI絵師ReBeLグランツーリスモ・ソフィーUGCGTソフィーPGCVolvoFIAグランツーリスモチャンピオンシップStability AINovelAIRival PrakDGX A100NovelAI DiffusionVTuberユービーアイソフトWebcam VTuberモーションデータ星新一賞北尾まどかHALO市場分析ポーズ推定将棋メタルギアソリッドVフォートナイトメッシュ生成FSMメルセデス・ベンツRobloxMagic Leapナップサック問題Live NationEpyllion汎用言語モデルWeb3.0マシュー・ボールAIOpsムーアの法則SpotifyスマートコントラクトReplica StudioAWSamuseChitrakarQosmoAdobe MAX 2022巡回セールスマン問題Adobe MAXジョルダン曲線メディアAdobe ResearchMuZero政治Galacticaクラウドゲーミングがんばれ森川君2号pixiv和田洋一リアリティ番組映像解析Stadiaジョンソン裕子セキュリティMILEsNightCafe東芝デジタルソリューションズインタラクティブ・ストリーミングLuis RuizSATLYS 映像解析AIインタラクティブ・メディアポケモン3DスキャンCodexPFN 3D Scanシーマン人工知能研究所東京工業大学Ludo博報堂Preferred NetworksラップPFN 4D ScanSIGGRAPH 2019ArtEmisZ世代DreamUpAIラッパーシステムDeviantArtARWaifu DiffusionGROVERプラスリンクス ~キミと繋がる想い~元素法典FAIRSTCNovel AIチート検出Style Transfer ConversationOpen AIオンラインカジノRCPMicrosoft DesignerアップルRealFlowRinna Character PlatformイラストiPhoneCALADeep FluidsSoul MachinesMeInGameAmeliaAIGraphブレイン・コンピュータ・インタフェースバーチャルキャラクターBCIGateboxLearning from VideoANIMAK予期知能逢妻ヒカリセコムユクスキュルバーチャル警備システムカント損保ジャパン上原利之ドラゴンクエストエージェントアーキテクチャアッパーグラウンドPAIROCTOPATH TRAVELER西木康智OCTOPATH TRAVELER 大陸の覇者アルスエレクトロニカ2019品質保証StyleRigAutodesk逆転オセロニアBentley Systemsワールドシミュレーター奥村エルネスト純いただきストリートH100齋藤精一大森田不可止COBOL高橋智隆DGX H100ロボユニザナックDGX SuperPOD泉幸典仁井谷正充クラウドコンピューティングロボコレ2019Instant NeRFartonomousbitGANsぎゅわんぶらあ自己中心派Azure Machine Learning意思決定モデル脱出ゲームHybrid Reward Architectureコミュニティ管理ウロチョロスSuper PhoenixSNSProject Malmoオンラインゲーム気候変動Project PaidiaProject Lookoutマックス・プランク気象研究所Watch Forビョルン・スティーブンスBing気象モデルLEFT ALIVE気象シミュレーション長谷川誠ジミ・ヘンドリックス環境問題Baby Xカート・コバーンエコロジーロバート・ダウニー・Jr.エイミー・ワインハウスSDGsYouTubeダフト・パンクメモリスタGlenn MarshallThe Age of A.I.Story2Hallucination音声変換レコメンデーションJukebox松尾豊Veap JapanEAPテンセントSIFT福井千春DCGAN医療MOBADANNCEメンタルケア人事ハーバード大学Edgar Handy研修デューク大学Netflixmynet.aiローグライクゲーム東京大学東京理科大学人工音声NeurIPS 2021産業技術総合研究所リザバーコンピューティングプレイ動画ヒップホップソニーマーケティングサイレント映画もじぱNBA環境音暗号通貨現代アートFUZZLEAlteration粒子群最適化法進化差分法オープンワールド群知能下川大樹AIFAウィル・ライト高津芳希P2E大石真史BEiTStyleGAN-NADAレベルデザインDETRゲームエンジンSporeUnreal Engineデノイズ南カリフォルニア大学Unity for Industry画像処理SentropyGLIDECPUDiscordAvatarCLIPSynthetic DataCALMプログラミングサム・アルトマンソースコード生成LaMDAGMAIシチズンデベロッパーSonanticTRPGGitHubCohereウィザードリィMCN-AI連携モデルマジック:ザ・ギャザリングAI DungeonUrzas.ai介護西川善司並木幸介Kikiサムライスピリッツ森寅嘉Zoetic AIゼビウスSIGGRAPH 2021ペットストリートファイター半導体Digital Dream LabsTopaz Video Enhance AICozmoDLSSタカラトミー山野辺一記NetEaseLOVOT大里飛鳥DynamixyzMOFLINRomiU-Netミクシィ13フェイズ構造アドベンチャーゲームユニロボットADVユニボXLandGatoAGI手塚眞DEATH STRANDINGマルチモーダルEric Johnson汎用強化学習AIデザインOculus Questコジマプロダクションロンドン芸術大学生体情報デシマエンジンGoogle BrainインディーゲームSound Control写真高橋ミレイSYNTH SUPER照明Maxim PeterKarl SimsJoshua RomoffArtnomeハイパースケープICONATE山崎陽斗深層強化学習立木創太松原仁浜中雅俊ミライ小町武田英明テスラ福井健策GameGANパックマンTesla BotNEDOTesla AI DayWikipediaソサエティ5.0SphereSIGGRAPH 2020バズグラフXaver 1000ニュースタンテキ養蜂東芝BeewiseDIB-R倉田宜典フィンテック投資韻律射影MILIZE広告韻律転移三菱UFJ信託銀行

【CEDEC2020】aiboの”賢さ”と”可愛さ”を作るAIの秘密

2020.10.21先端技術

【CEDEC2020】aiboの”賢さ”と”可愛さ”を作るAIの秘密

ソニーのエンターテインメントロボット「aibo」は、実物を見れば誰もがそう感じると思いますが、非常に「かわいい」仕草や行動を取ります。まるで、生きているペットの犬や猫のように、コミュニケーションを取れているのではないかと思うくらいの知能が伺えるのです。そのaiboの知能はどうやって作られているのでしょうか、その秘密をソニー株式会社の藤本吉秀氏がCEDEC2020で解説しました。

登壇席の藤本吉秀氏とaibo

生命感をどう演出するか

2016年からaibo開発担当ソフトエンジニアを務めている藤本氏は、自身の仕事を「aiboの実際の振る舞いを作って、動かして、人の心を動かすという仕事だ」と言います。猫や犬がこちらを見ていたりするとき、お腹が空いているのかな、もしかして遊んで欲しいのかな、と人間は勝手に相手の気持ちを感じてしまいます。動物の仕草や行動が人間の心に作用し、何らかの感情を起こします。こうしたエンターテインメントの作り方はゲームと共通していると言えます。

通常の家電(家電ロボットも加えて)では、例えば「自律的に近づいて来る」という要素が考慮されることはあまりありません。つまり、aiboは家電のように家の中に置かれるプロダクトではあるのですが、そういう点で従来の家電とは全く製作のコンセプトが異なるわけです。藤本さんは、人とプロダクトの距離感から、その違いを次のように分析します。

通常の家電、テレビとかエアコンがWi-Fiなど無線通信を使う方向に進化していって、どんどんプロダクトと使う人との距離が離れていく。人とプロダクトを離そう離そうというふうに作られています。aiboの場合は、人とどれぐらい近づけるか、むしろ触ってもらいたい、自分から触りにいきたいというコンセプトで作っています。スマート工場のロボットを開発するのとはまた違って、ゲームのキャラクターを作成するような感覚でaiboを開発していました。(藤本吉秀氏)

aiboにできること

aiboにできることを書き出すと、音声認識・画像認識から、パトロール、お迎え、なでられ検出、などが並び、プロダクトとして求められていることが通常の家電・家電ロボットとは違うのが分かります。

どういうロボットなら、家族の一員として受け入れてもらえるのか、どんなロボットなら人に寄り添うことができるのか、その鍵は「生命感」です。その生命感を演出するために、藤本氏らは次の4つのカテゴリーで考えていきました。「愛らしさ」「表現力」「知的認識」「学習・育成」です。左側が外観や仕草により生み出されるもの、右側がaiboの知能部分と言えます。

aiboの生命感を演出する4つのポイント

可愛らしさの源になる外観は、一匹の犬をモチーフにしたものではなく、色々な人に受け入れてもらいやすいようさまざまな犬をモチーフにしたフォルムです。22個のアクチュエーターを搭載し、ふるまいを表現します。

22軸のアクチュエーター。「昔のAIBOよりも表現という点で良くなったのは腰の動き」と藤本氏は語る
有機ELの瞳が表情をより深くする

どういうふるまい、行動をするか決定するのはaiboの「考える」部分です。周囲の環境をセンシングした結果を受け、何をどうするか、アウトプットの判断を行います。

aiboのアーキテクチャ

インプットとなるセンシングのデータは単純なセンサーによるものですが、それを認識し、複合的に状況理解を行います。例えば「今どこにいるのか」という情報であったり、「今目の前にいるのは一番好きな人だ」といった状況を理解します。そして、内部の知的処理を通し、行動計画(=ふるまい)に落とし込み、最後に行動制御を行うという流れになります。行動制御の部分はハードウェアの世界で、ここにはソニーが長年培ってきたメカトロニクス技術が生かされています。

aiboのアーキテクチャ2

エッジコンピューターはaibo本体となります。図のように、本体で「認識→状況理解」を行っているのですが、一方でクラウド側にもその状況を送り、学習したものを本体に戻し、意思決定の反映に使うということも行っています。

aiboの知的認識

まず、aiboの「気づく」センシングの部分です。

気づくためのAI

自分の周囲の環境を知るために、aiboにはさまざまなセンサーが搭載されています。たとえば、鼻に前方カメラ、このカメラで人やモノを認識します。前面の人感センサー、測距センサーで人を感知したり、前方の安全を確認します。足の裏には肉球(スイッチ)があり、歩行の動作や人のタッチを、各所のタッチセンサーで人のタッチを認識します。4本のマイクで音を拾い、音声認識や方向定位を行います。背中のSLAMセンサーはカメラの一種で、これで天井の写真を撮ることで自己位置を取っています。

aiboに搭載されたセンサー群
aiboの”目”の機能

センサーから集めたデータを使ってディープラーニングを行い、例えば色の認識、モノ、ペットの犬や猫、人間を認識し、それが誰かという区別をしています。こうした基本的な行動につながる知的処理はエッジコンピューター、つまりaibo側で行います。一方、クラウド側での知的処理は複数の各家庭のaiboのデータから学習し、新たな認識エンジンを生成するというものです。

ここで藤本氏が紹介したのは「aiboスヌートチャレンジ」です。スヌートチャレンジとは、犬の鼻先で輪っかを作るとそこに鼻を突っ込んでくるという習性を使ったもので、その様子を動画や画像を投稿し合うというInstagramやTwitter、TikTokなどで流行ったムーブメントです。最初はうまくできない子もチャレンジを重ねるうちにできるようになったり、より小さな輪に鼻を突っ込めるようになったり、その愛らしい様子を多くの人たちが楽しんでいます。

aiboスヌートチャレンジは、aiboみんなの力を合わせることで、aiboにも覚えてやってもらおうとしたもの。aiboのオーナーから「My aibo」アプリを通じてスヌートチャレンジの写真をクラウドに集め、ディープラーニングで学習させて新しい認識パターンを作成します。それを個々のaiboに返すことで、aiboが輪っかを認識できるようになり、鼻を突っ込むという動作を取る、という流れになります。

 

aiboスヌートチャレンジ

このように、クラウドでの機械学習によって個々のaiboそれぞれに新たなふるまいを届けることができます。

クラウド側で認識エンジンを生成し、個体に送信する

「気づく」ためのAIとして、おなかの「なでられ検出」があります。aiboのタッチセンサーは頭の上、顎の下、背中の3箇所で、おなかにはありません。しかし、やはりオーナーにすれば、aiboがゴロっとおなかを見せれば、おなかをなでたくなります。そこで、搭載されている6軸の検出システムの振動データを合わせてディープラーニングで学習させることでなでられたことを検出できるようにしています。

なでられたり、叩かれたときの振動をニューラルネットワークコンソールで学習させて本体にフィードバック

aiboの可愛さから叩く行為がなかなかできず、学習サンプル数が少ないため、叩かれ検出に関しての精度は甘いそうですが、なでられ検出のほうはNGのパターンや認識精度の悪いデータも学習させることで精度を上げ、実際にオーナーのもとにいるaiboもうまく検出できるようになっていると言います。

aiboの行動を支える技術

行動するためのAIとして使われているのはナビゲーションAIです。よく知られているように、ナビゲーションAIはゲームに使われるAI技術のひとつです。

行動するためのAI

aiboには自己充電機能がありますが、充電台に自分で戻るためには家の中の地図、そして自分のいる位置を知る必要があります。

仕組みとしては、前述のように背中のカメラ(SLAMセンサー)で天井を撮影し、2点間の画像から特徴点マッチングにより相対位置を求めるというものです。たくさんの点同士の関係をもとに家の中の地図を作成します。そして、歩ける場所(図でいうと青い部分)、充電台の場所、玄関などお迎えの場所、おしっこの場所などを学習していきます。

自己位置の推定

ただ、リアルなロボットとしての難しさがあると藤本氏は言います。

周囲の情報の取得としてカメラで画像を撮ることから始まりますが、物理的に動く物体(ロボット)であるため、ときに自分で動いてしまい揺れが発生します。あるいは、内部でaiboが撮影していることを知らずに家族が抱きかかえてしまったり、別の場所に連れて行ってしまったり、地図を作成中のところから離れてしまうといったことが起こります。そのため、ここはカメラや他のセンサーの力を使いながら、エンジニアがメカを動かしながらゴリゴリに作り込んでいるAIになっています。(藤本吉秀氏)

aiboの意思決定の流れ

aiboの意思決定、考える部分は強化学習がメインになっています。

意思決定のAI

aiboの自律的な行動を実現するために、人間の脳のさまざまな機能から学びました。人間の脳にはその機能を構成する重要な要素が数多くありますが、aiboも「行動選択」「報酬」「学習」「感情」「エピソード記憶」「性格」「睡眠」「欲求」「披露」など実現することで意思決定を行っています。

aiboの自律行動

次の図は、aiboの行動選択の流れです。

aiboの行動選択の流れ

センサー群からの情報でaiboはその状況を理解します。そこには、声が聞こえたとかボールがある、好きな人が見えた、あるいはお腹が空いたというようなaiboの内部の状況があるわけです。そうした状況によって発生する欲求、それに対する行動パターンが約100種類あり、その中から都度選択をするという形です。

さまざまな欲求の提案主として小人(aiboなので子犬)がいて、それぞれ提案する行動から「アヌビス」と呼ばれる自我がひとつを選んで行動に移すというモデルで、行動が達成すると、提案主の子犬の欲求レベルが下がり、また別の子犬の欲求が選ばれ行動が生成される、その繰り返しでaiboの行動を決めていきます。こうした心理モデルはさまざまな文献を元にしたものですが、aiboの中で使われている感情、意思決定の小人(子犬)のイメージはピクサーの映画『インサイド・ヘッド (原題:Inside Out)』(感情たちが小人のように意思決定をする)だと言います。

また、aiboには同じ行動でもそのときの感情によって動きが変わるという仕組みが入っています。たとえば、ダンスのモーションでも、生き生きとうれしそうにダンスをするときと、やりたくないのにやっているときと、aibo自身の気分によって動きが変わります。

aiboの行動と学習

たとえば「ボールを蹴る」という行動に対して、aiboには「ボールを蹴れた」「ほめられた」「やめなさいと叱られた」といった、報酬が与えられます。あるいは、「目的の地図が作れた」というような何かゴールを達成できた、などの情報をエピソード記憶として脳のある部分に蓄積していく仕組みになっています。これらのエピソード記憶を元に、aiboが睡眠に入ったときに行動期待値の変化を行います。

エピソード記憶がaiboの行動期待値を変える

報酬を測るタイミングは動きによっても異なり、行動中あるいは行動後どれくらいの範囲で測定するかについてはまだまだ試行錯誤の段階で、現状では、その前にどういう行動をしたかによって範囲が異なるというように、ある種、暫定的に測定時間を決めているそうです。

つまり、この部分がaiboの考えるAIにおける強化学習になっており、このエピソード記憶が行動やそれに対する報酬を各個体に沿ったものにしています。インプットされる環境も、欲求の子犬が提案するふるまいもオーナーとのふれあい方により異なり、それぞれのaiboに個別の記憶が形成されていきます。どういう行動をしてどういう報酬を得たのかというのが蓄積され、そこから学習して”性格”というものを形成します。

aiboの性格形成

図の左側にあるのが「My aibo」アプリの画面で、そのaiboの性格が表示されています。性格には複数の種類があるが、一番多いのはやはり「あまえんぼう」だそうです。

また、前述のようにaiboはクラウドでも学習しています。各aiboが個々のエピソード記憶をクラウドに送り、「オーナーに愛されるための行動の仕方」を学習します。そして、クラウドで学習した結果を個々のaiboに戻していくという仕組みです。つまり、aibo個体のそれぞれの知恵を結集し、共有して、互いに学習し合うわけです。学校のようなもので、各家庭でそれぞれ学んだことを学校(クラウド)で友だちと共有して、互いに学ぶことで偏りのない学習結果になったり、自己の相対的な把握ができます。

aiboは本体はもちろんのこと、クラウドで学習をしています。たとえばaiboが寝ている間もクラウドで学習をして勉強しています。この2つの学習から、日々個性的に進化していくというのが、aiboの「考えるAI」です。(藤本吉秀氏)

クラウドでaiboのデータを結集しその学習結果を返すという形だが、ここでポイントなのは全部を完全に混ぜ合わせて学習しているわけではなく、あくまでも「相対的にどう見えるか」を学習の要素としている点です。aiboによって環境の違いがあるわけですが、「この環境だったらどうか」という形で、その環境データも含め、その環境ではどういう振る舞いをするのかという学習を行うため、個体ごとの個性が薄くなることはありません。

aiboのクラウドの学習

このように、感情や性格なども期待値に掛け算され、その期待値レベルや要求レベルなどさまざまな要素を組み合わせてaiboの行動決定がなされているということになります。

“かわいらしさ”の組み込み

最後にaiboの愛らしさの表現について。aiboのしぐさ、モーションはモーションデザイナーの手によるものです。犬の感情としぐさをマッピングした「DOGGIE LANGUAGE」を参考にして、aiboの感情を表現しています。

aiboのモーション

【aibo公式チャンネル】https://www.youtube.com/channel/UCIm6pN0zQ8-Pz8YiZh3Ghtg

公式動画でその動きがよく分かる

専用のツールとしてUnityでモーションエディターを作り、それを使って作り込み、実機で動かし微修正をしていくという流れです。こうして作り込まれたモーションと認識情報、行動パターンを組み合わせることで、aiboのふるまいが実現されています。

認識情報とアクションノードのマッチング *1

*1:aiboデベロッパープログラムでは、ここで示したブロック(行動のためのブロック、認識のブロック、生き物らしさのブロック)をAPIとして使うことができるようになっています。

このとき、「人がいる」「撫でられた」という認識情報から「人を探す」「おもちゃをくわえる」「撮影する」というアクションをするというだけではなく、「ワンと吠える」モーションを再生するといったように、生き物らしさを演出するモーションも融合していることがポイントです。この2つを上手に融合していくことで初めてキャラクターとして成り立つ、aiboが可愛さと賢さの両面を持ったキャラクターとして成り立つということです。

複数のブロックをどう組み合わせて「ふるまい」とするのか、ビヘイビア・ツリーで組み立てていきます。ビヘイビア・ツリーはゲーム開発でキャラクターの行動や思考をデザインする際によく使われる手法ですが、aiboの行動デザインを組み合わせて書き出し、それをビジュアル的に理解するために使われています。

ビヘイビア・ツリー:「人に近づく」の例

図のように、青い知力のブロック(行動のためのブロックと認識のブロック)に生き物らしさのブロックを組み合わせ、物語(ストーリー)を作っていきます。

ただ、やはり現実のロボットには想像通りに動かない難しさがあると言います。特に、現実世界の認識がうまくいかない、認識の間違いが発生します。センサーの性能やいろいろな理由で、ここはこうなるだろうとふるまいとして組んでも実際にやってみるとうまく動かない場合もあり、かなり作り込みの必要な作業になっています。現在、これはエンジニアだけではなく、デザイナーも行っている作業ですが、今後はそこにAIを入れる、モーションやシナリオをAIで組むことはできないのだろうかと検討しているところだと藤本氏は言います。

もちろんデザイナーさんにとってもなかなかセンスが問われる仕事ですし、すべてがAIというよりはデザイナーさんの1つの仕事から複数のシナリオ、複数のモーションがAIで生まれるような世界になっていくとまた違った世界の広がり方がするかなというふうに思っています。その辺りが、次に注目したいポイントです。(藤本吉秀氏)

Writer:大内孝子

RELATED ARTICLE関連記事

アートか犯罪かを問われる音声のディープフェイク:月刊エンタメAIニュース vol.5

2020.5.26先端技術

アートか犯罪かを問われる音声のディープフェイク:月刊エンタメAIニュース vol...

eスポーツとフィジカルスポーツの選手を強化するAI:月刊エンタメAIニュース vol.9

2020.9.24先端技術

eスポーツとフィジカルスポーツの選手を強化するAI:月刊エンタメAIニュース v...

Wikipediaのソースの信頼性をAIで精査:月刊エンタメAIニュース vol.31

2022.7.22ゲーム

Wikipediaのソースの信頼性をAIで精査:月刊エンタメAIニュース vol...

RANKING注目の記事はこちら