モリカトロン株式会社運営「エンターテインメント×AI」の最新情報をお届けするサイトです。

TAG LIST
CGCGへの扉機械学習安藤幸央ディープラーニング月刊エンタメAIニュースGAN河合律子OpenAI音楽ニューラルネットワークNVIDIA三宅陽一郎強化学習吉本幸記QAGoogleFacebook人工知能学会GPT-3自然言語処理グーグルDeepMind大内孝子森川幸人敵対的生成ネットワークキャラクターAIスクウェア・エニックスモリカトロンAIラボインタビューマイクロソフトルールベースシナリオAIと倫理映画デバッグアートDALL-E2StyleGAN倫理ゲームプレイAINFT自動生成SIGGRAPHメタAIStable Diffusionテキスト画像生成ロボット深層学習CEDEC2019プロシージャル遺伝的アルゴリズムテストプレイモリカトロンDALL-Eビヘイビア・ツリーディープフェイクCEDEC2021CEDEC2020ゲームAIVFXデジタルツインメタバース不完全情報ゲームVRナビゲーションAI画像生成AINPC畳み込みニューラルネットワークCLIP画像生成GDC 2021JSAI2022GDC 2019マルチエージェントCEDEC2022AIアートボードゲームファッション懐ゲーから辿るゲームAI技術史toioCNNAdobeUnity著作権小説アニメーション鴫原盛之HTN階層型タスクネットワーク汎用人工知能JSAI2020TensorFlowインタビューBERTMicrosoftイベントレポート対話型エージェントロボティクスMetaMinecraft水野勇太Genvid TechnologiesガイスターStyleGAN2GTC2022教育ソニーJSAI2021スポーツ研究シムピープルMCS-AI動的連携モデルマンガマーケティングGDC SummerバーチャルヒューマンブロックチェーンMidjourneyアストロノーカキャリアNVIDIA OmniverseeスポーツAmazoneSportsDQNBLUE PROTOCOLシーマンアバターOmniverse3DCGUbisoftメタAlphaZeroTransformerGPT-2AIりんなカメラ環世界中島秀之哲学ベリサーブPlayable!ChatGPT理化学研究所ジェネレーティブAISIGGRAPH ASIADARPAドローンシムシティImagenZorkバイアスモーションキャプチャーTEZUKA2020AI美空ひばり手塚治虫バンダイナムコ研究所スパーシャルAIElectronic Arts3DメタデータLEFT 4 DEAD通しプレイOpenAI Five本間翔太CMピクサープラチナエッグイーサリアム作曲ボエダ・ゴティエビッグデータ中嶋謙互Amadeus Codeデータ分析Microsoft AzureMILE模倣学習ナラティブスタンフォード大学アーケードゲームOmniverse ReplicatorWCCFレコメンドシステムNVIDIA DRIVE SimWORLD CLUB Champion FootballNVIDIA Isaac Simセガ柏田知大軍事サイバーエージェント田邊雅彦トレーディングカードトレカ音声認識メディアアートPyTorch眞鍋和子バンダイナムコスタジオaibo合成音声齊藤陽介マインクラフトお知らせMagic Leap Oneチャットボットサルでもわかる人工知能VAEDreamFusionリップシンキングUbisoft La Forge自動運転車ワークショップ知識表現ウォッチドッグス レギオンIGDA秋期GTC2022どうぶつしょうぎEpic Gamesジェイ・コウガミ音楽ストリーミングMITAIロボ「迷キュー」に挑戦野々下裕子徳井直生マシンラーニング5GMuZeroRival Peakクラウド対話エンジン斎藤由多加リトル・コンピュータ・ピープルCodexコンピューティショナル・フォトグラフィーゴブレット・ゴブラーズ絵画rinnaイラストシミュレーションデジタルヒューマン完全情報ゲーム坂本洋典PaLM釜屋憲彦ウェイポイントパス検索対談藤澤仁生物学GTC 2022画像認識GPT-3.5SiemensStyleCLIPDeNA長谷洋平masumi toyota宮路洋一OpenSeaGDC 2022TextWorldEarth-2BingMagentaSFELYZA Pencil松尾豊GTC2021CycleGANデータマイニング東京大学NetHackはこだて未来大学キャラクターモーションフェイクニュースエージェントRPGSIGGRAPH 2022レベルデザインAIボイスアクターNVIDIA CanvasGPUALife人工生命オルタナティヴ・マシンサウンドスケープLaMDAAI DungeonASBS栗原聡ぱいどんテキスト生成不気味の谷ナビゲーションメッシュ松井俊浩ELYZAフルコトELYZA DIGEST音声合成西成活裕Apex LegendsELIZA群衆マネジメントNinjaコンピュータRPGライブビジネスアップルタウン物語新型コロナKELDIC周済涛メロディ言語清田陽司ゲームTENTUPLAYサイバネティックスMARVEL Future FightAstro人工知能史タイムラプスEgo4DAI哲学マップバスキア星新一日経イノベーション・ラボStyleGAN-XL敵対的強化学習StyleGAN3階層型強化学習GOSU Data LabGANimatorWANNGOSU Voice AssistantVoLux-GAN竹内将SenpAI.GGProjected GANMobalyticsSelf-Distilled StyleGAN馬淵浩希Cygamesニューラルレンダリング岡島学AWS SagemakerPLATO映像セリア・ホデント形態素解析frame.ioUXAWS LambdaFoodly誤字検出森山和道認知科学中川友紀子ゲームデザインSentencePieceアールティLUMINOUS ENGINELuminous ProductionsBlenderBot 3パターン・ランゲージ竹村也哉Meta AIちょまどマーク・ザッカーバーグGOAPWACULAdobe MAX 2021自動翻訳AIライティングOmniverse AvatarAIのべりすとFPSNVIDIA RivaQuillBotマルコフ決定過程NVIDIA MegatronCopysmithNVIDIA MerlinJasperNVIDIA Metropolisパラメータ設計テニスバランス調整協調フィルタリング人狼知能テキサス大学AlphaDogfight TrialsAI Messenger VoicebotエージェントシミュレーションOpenAI CodexStarCraft IIHyperStyleMax CooperFuture of Life InstituteRendering with StyleIntelDisney類家利直LAIKADisneyリサーチヴィトゲンシュタインRotomationGauGAN論理哲学論考GauGAN2京都芸術大学ドラゴンクエストライバルズ画像言語表現モデル不確定ゲームSIGGRAPH ASIA 2021PromptBaseDota 2モンテカルロ木探索ディズニーリサーチMitsuba2バンダイナムコネクサスソーシャルゲームEmbeddingワイツマン科学研究所ユーザーレビューGTC2020CG衣装mimicNVIDIA MAXINEVRファッションBaidu淡路滋ビデオ会議ArtflowERNIE-ViLGグリムノーツEponym古文書ゴティエ・ボエダ音声クローニング凸版印刷Gautier Boeda階層的クラスタリングGopherAI-OCR画像判定JuliusSIE鑑定ラベル付けTPRGOxia Palus大澤博隆バーチャル・ヒューマン・エージェントtoio SDK for UnityArt RecognitionSFプロトタイピングクーガー田中章愛実況パワフルサッカー石井敦銭起揚NHC 2021桃太郎電鉄茂谷保伯池田利夫桃鉄GDMC新刊案内パワサカマーベル・シネマティック・ユニバースコナミデジタルエンタテインメント成沢理恵MITメディアラボMCU岩倉宏介アベンジャーズPPOマジック・リープDigital DomainMachine Learning Project CanvasMagendaMasquerade2.0国立情報学研究所ノンファンジブルトークンDDSPフェイシャルキャプチャー石川冬樹サッカーモリカトロン開発者インタビュースパコン里井大輝Kaggle宮本茂則スーパーコンピュータバスケットボール山田暉松岡 聡Assassin’s Creed OriginsAI会話ジェネレーターTSUBAME 1.0Sea of ThievesTSUBAME 2.0GEMS COMPANYmonoAI technologyLSTMABCIモリカトロンAIソリューション富岳初音ミクOculusコード生成AISociety 5.0転移学習テストAlphaCode夏の電脳甲子園Baldur's Gate 3Codeforces座談会Candy Crush Saga自己増強型AItext-to-imageSIGGRAPH ASIA 2020COLMAPtext-to-3DADOPNVIDIA GET3DデバッギングBigGANGANverse3DMaterialGANRNNグランツーリスモSPORTAI絵師ReBeLグランツーリスモ・ソフィーUGCGTソフィーPGCVolvoFIAグランツーリスモチャンピオンシップStability AINovelAIRival PrakDGX A100NovelAI DiffusionVTuberユービーアイソフトWebcam VTuberモーションデータ星新一賞北尾まどかHALO市場分析ポーズ推定将棋メタルギアソリッドVフォートナイトメッシュ生成FSMメルセデス・ベンツRobloxMagic Leapナップサック問題Live NationEpyllion汎用言語モデルWeb3.0マシュー・ボールAIOpsムーアの法則SpotifyスマートコントラクトReplica StudioAWSamuseChitrakarQosmoAdobe MAX 2022巡回セールスマン問題Adobe MAXジョルダン曲線メディアAdobe Research政治Galacticaクラウドゲーミングがんばれ森川君2号pixiv和田洋一リアリティ番組映像解析Stadiaジョンソン裕子セキュリティMILEsNightCafe東芝デジタルソリューションズインタラクティブ・ストリーミングLuis RuizSATLYS 映像解析AIインタラクティブ・メディアポケモン3DスキャンPFN 3D Scanシーマン人工知能研究所東京工業大学Ludo博報堂Preferred NetworksラップPFN 4D ScanSIGGRAPH 2019ArtEmisZ世代DreamUpAIラッパーシステムDeviantArtARWaifu DiffusionGROVERプラスリンクス ~キミと繋がる想い~元素法典FAIRSTCNovel AIチート検出Style Transfer ConversationOpen AIオンラインカジノRCPMicrosoft DesignerアップルRealFlowRinna Character PlatformiPhoneCALADeep FluidsSoul Machines柿沼太一MeInGameAmeliaELSIAIGraphブレイン・コンピュータ・インタフェースバーチャルキャラクター大規模言語モデルBCIGateboxアフォーダンスLearning from VideoANIMAKPaLM-SayCan予期知能逢妻ヒカリセコムGitHub Copilotユクスキュルバーチャル警備システムCode as Policiesカント損保ジャパンCaP上原利之ドラゴンクエストエージェントアーキテクチャアッパーグラウンドコリジョンチェックPAIROCTOPATH TRAVELER西木康智OCTOPATH TRAVELER 大陸の覇者山口情報芸術センター[YCAM]アルスエレクトロニカ2019品質保証YCAMStyleRigAutodeskアンラーニング・ランゲージ逆転オセロニアBentley Systemsカイル・マクドナルドワールドシミュレーターローレン・リー・マッカーシー奥村エルネスト純いただきストリートH100鎖国[Walled Garden]​​プロジェクト齋藤精一大森田不可止COBOLSIGGRAPH ASIA 2022高橋智隆DGX H100VToonifyロボユニザナックDGX SuperPODControlVAE泉幸典仁井谷正充クラウドコンピューティング変分オートエンコーダーロボコレ2019Instant NeRFフォトグラメトリartonomous回帰型ニューラルネットワークbitGANsDeepJoinぎゅわんぶらあ自己中心派Azure Machine LearningAzure OpenAI Service意思決定モデル脱出ゲームDeepLHybrid Reward Architectureコミュニティ管理DeepL WriteウロチョロスSuper PhoenixSNSProject MalmoオンラインゲームGen-1気候変動Project PaidiaシンギュラリティProject Lookoutマックス・プランク気象研究所レイ・カーツワイルWatch Forビョルン・スティーブンスヴァーナー・ヴィンジ気象モデルRunway ResearchLEFT ALIVE気象シミュレーションMake-A-Video長谷川誠ジミ・ヘンドリックス環境問題PhenakiBaby Xカート・コバーンエコロジーDreamixロバート・ダウニー・Jr.エイミー・ワインハウスSDGsText-to-Imageモデル音楽生成AIYouTubeダフト・パンクメモリスタ音声生成AIGlenn MarshallScenarioThe Age of A.I.Story2Hallucination音声変換LatitudeレコメンデーションJukeboxAIピカソVeap JapanAI素材.comEAPneoAIテンセントSIFT福井千春DreamIconDCGAN医療mignMOBADANNCEメンタルケアstudiffuse人事ハーバード大学Edgar HandyAndreessen Horowitz研修デューク大学NetflixAIQVE ONEQA Tech Nightmynet.aiローグライクゲーム松木晋祐東京理科大学下田純也人工音声NeurIPS 2021産業技術総合研究所桑野範久リザバーコンピューティングBardプレイ動画ヒップホップ対話型AIモデルソニーマーケティングControlNetサイレント映画もじぱnoteNBA環境音暗号通貨note AIアシスタント現代アートFUZZLEKetchupAlterationAI News粒子群最適化法Art Selfie進化差分法オープンワールドArt Transfer群知能下川大樹AIFAPet Portraitsウィル・ライト高津芳希P2EBlob Opera大石真史クリムトBEiTStyleGAN-NADA世界モデルDETRゲームエンジンDreamerV3SporeUnreal Engineクリティックネットワークデノイズ南カリフォルニア大学Unity for Industryアクターネットワーク画像処理DMLabSentropyGLIDEControl SuiteCPUDiscordAvatarCLIPAtari 100kSynthetic DataAtari 200MCALMYann LeCunプログラミングサム・アルトマン鈴木雅大ソースコード生成コンセプトアートGMAIシチズンデベロッパーSonanticColie WertzTRPGGitHubCohereリドリー・スコットウィザードリィMCN-AI連携モデルマジック:ザ・ギャザリング絵コンテUrzas.aiストーリーボード介護大阪大学西川善司並木幸介KikiBlenderサムライスピリッツ森寅嘉Zoetic AIプロンプトゼビウスSIGGRAPH 2021ペットGPT-4ストリートファイター半導体Digital Dream LabsPaLM APITopaz Video Enhance AICozmoMakerSuiteDLSSタカラトミーSkeb山野辺一記NetEaseLOVOTDreambooth-Stable-Diffusion大里飛鳥DynamixyzMOFLINゲーム背景RomiGoogle EarthU-NetミクシィGEPPETTO AI13フェイズ構造アドベンチャーゲームユニロボットStable Diffusion web UIADVユニボPoint-EXLandGatoAGI手塚眞DEATH STRANDINGマルチモーダルEric Johnson汎用強化学習AIデザインOculus Questコジマプロダクションロンドン芸術大学生体情報デシマエンジンGoogle BrainインディーゲームSound Control写真高橋ミレイSYNTH SUPER照明Maxim PeterKarl SimsJoshua RomoffArtnomeハイパースケープICONATE山崎陽斗深層強化学習立木創太松原仁浜中雅俊ミライ小町武田英明テスラ福井健策GameGANパックマンTesla BotNEDOTesla AI DayWikipediaソサエティ5.0SphereSIGGRAPH 2020バズグラフXaver 1000ニュースタンテキ養蜂東芝BeewiseDIB-R倉田宜典フィンテック投資韻律射影MILIZE広告韻律転移三菱UFJ信託銀行

【CEDEC2020】aiboの”賢さ”と”可愛さ”を作るAIの秘密

2020.10.21先端技術

【CEDEC2020】aiboの”賢さ”と”可愛さ”を作るAIの秘密

ソニーのエンターテインメントロボット「aibo」は、実物を見れば誰もがそう感じると思いますが、非常に「かわいい」仕草や行動を取ります。まるで、生きているペットの犬や猫のように、コミュニケーションを取れているのではないかと思うくらいの知能が伺えるのです。そのaiboの知能はどうやって作られているのでしょうか、その秘密をソニー株式会社の藤本吉秀氏がCEDEC2020で解説しました。

登壇席の藤本吉秀氏とaibo

生命感をどう演出するか

2016年からaibo開発担当ソフトエンジニアを務めている藤本氏は、自身の仕事を「aiboの実際の振る舞いを作って、動かして、人の心を動かすという仕事だ」と言います。猫や犬がこちらを見ていたりするとき、お腹が空いているのかな、もしかして遊んで欲しいのかな、と人間は勝手に相手の気持ちを感じてしまいます。動物の仕草や行動が人間の心に作用し、何らかの感情を起こします。こうしたエンターテインメントの作り方はゲームと共通していると言えます。

通常の家電(家電ロボットも加えて)では、例えば「自律的に近づいて来る」という要素が考慮されることはあまりありません。つまり、aiboは家電のように家の中に置かれるプロダクトではあるのですが、そういう点で従来の家電とは全く製作のコンセプトが異なるわけです。藤本さんは、人とプロダクトの距離感から、その違いを次のように分析します。

通常の家電、テレビとかエアコンがWi-Fiなど無線通信を使う方向に進化していって、どんどんプロダクトと使う人との距離が離れていく。人とプロダクトを離そう離そうというふうに作られています。aiboの場合は、人とどれぐらい近づけるか、むしろ触ってもらいたい、自分から触りにいきたいというコンセプトで作っています。スマート工場のロボットを開発するのとはまた違って、ゲームのキャラクターを作成するような感覚でaiboを開発していました。(藤本吉秀氏)

aiboにできること

aiboにできることを書き出すと、音声認識・画像認識から、パトロール、お迎え、なでられ検出、などが並び、プロダクトとして求められていることが通常の家電・家電ロボットとは違うのが分かります。

どういうロボットなら、家族の一員として受け入れてもらえるのか、どんなロボットなら人に寄り添うことができるのか、その鍵は「生命感」です。その生命感を演出するために、藤本氏らは次の4つのカテゴリーで考えていきました。「愛らしさ」「表現力」「知的認識」「学習・育成」です。左側が外観や仕草により生み出されるもの、右側がaiboの知能部分と言えます。

aiboの生命感を演出する4つのポイント

可愛らしさの源になる外観は、一匹の犬をモチーフにしたものではなく、色々な人に受け入れてもらいやすいようさまざまな犬をモチーフにしたフォルムです。22個のアクチュエーターを搭載し、ふるまいを表現します。

22軸のアクチュエーター。「昔のAIBOよりも表現という点で良くなったのは腰の動き」と藤本氏は語る
有機ELの瞳が表情をより深くする

どういうふるまい、行動をするか決定するのはaiboの「考える」部分です。周囲の環境をセンシングした結果を受け、何をどうするか、アウトプットの判断を行います。

aiboのアーキテクチャ

インプットとなるセンシングのデータは単純なセンサーによるものですが、それを認識し、複合的に状況理解を行います。例えば「今どこにいるのか」という情報であったり、「今目の前にいるのは一番好きな人だ」といった状況を理解します。そして、内部の知的処理を通し、行動計画(=ふるまい)に落とし込み、最後に行動制御を行うという流れになります。行動制御の部分はハードウェアの世界で、ここにはソニーが長年培ってきたメカトロニクス技術が生かされています。

aiboのアーキテクチャ2

エッジコンピューターはaibo本体となります。図のように、本体で「認識→状況理解」を行っているのですが、一方でクラウド側にもその状況を送り、学習したものを本体に戻し、意思決定の反映に使うということも行っています。

aiboの知的認識

まず、aiboの「気づく」センシングの部分です。

気づくためのAI

自分の周囲の環境を知るために、aiboにはさまざまなセンサーが搭載されています。たとえば、鼻に前方カメラ、このカメラで人やモノを認識します。前面の人感センサー、測距センサーで人を感知したり、前方の安全を確認します。足の裏には肉球(スイッチ)があり、歩行の動作や人のタッチを、各所のタッチセンサーで人のタッチを認識します。4本のマイクで音を拾い、音声認識や方向定位を行います。背中のSLAMセンサーはカメラの一種で、これで天井の写真を撮ることで自己位置を取っています。

aiboに搭載されたセンサー群
aiboの”目”の機能

センサーから集めたデータを使ってディープラーニングを行い、例えば色の認識、モノ、ペットの犬や猫、人間を認識し、それが誰かという区別をしています。こうした基本的な行動につながる知的処理はエッジコンピューター、つまりaibo側で行います。一方、クラウド側での知的処理は複数の各家庭のaiboのデータから学習し、新たな認識エンジンを生成するというものです。

ここで藤本氏が紹介したのは「aiboスヌートチャレンジ」です。スヌートチャレンジとは、犬の鼻先で輪っかを作るとそこに鼻を突っ込んでくるという習性を使ったもので、その様子を動画や画像を投稿し合うというInstagramやTwitter、TikTokなどで流行ったムーブメントです。最初はうまくできない子もチャレンジを重ねるうちにできるようになったり、より小さな輪に鼻を突っ込めるようになったり、その愛らしい様子を多くの人たちが楽しんでいます。

aiboスヌートチャレンジは、aiboみんなの力を合わせることで、aiboにも覚えてやってもらおうとしたもの。aiboのオーナーから「My aibo」アプリを通じてスヌートチャレンジの写真をクラウドに集め、ディープラーニングで学習させて新しい認識パターンを作成します。それを個々のaiboに返すことで、aiboが輪っかを認識できるようになり、鼻を突っ込むという動作を取る、という流れになります。

 

aiboスヌートチャレンジ

このように、クラウドでの機械学習によって個々のaiboそれぞれに新たなふるまいを届けることができます。

クラウド側で認識エンジンを生成し、個体に送信する

「気づく」ためのAIとして、おなかの「なでられ検出」があります。aiboのタッチセンサーは頭の上、顎の下、背中の3箇所で、おなかにはありません。しかし、やはりオーナーにすれば、aiboがゴロっとおなかを見せれば、おなかをなでたくなります。そこで、搭載されている6軸の検出システムの振動データを合わせてディープラーニングで学習させることでなでられたことを検出できるようにしています。

なでられたり、叩かれたときの振動をニューラルネットワークコンソールで学習させて本体にフィードバック

aiboの可愛さから叩く行為がなかなかできず、学習サンプル数が少ないため、叩かれ検出に関しての精度は甘いそうですが、なでられ検出のほうはNGのパターンや認識精度の悪いデータも学習させることで精度を上げ、実際にオーナーのもとにいるaiboもうまく検出できるようになっていると言います。

aiboの行動を支える技術

行動するためのAIとして使われているのはナビゲーションAIです。よく知られているように、ナビゲーションAIはゲームに使われるAI技術のひとつです。

行動するためのAI

aiboには自己充電機能がありますが、充電台に自分で戻るためには家の中の地図、そして自分のいる位置を知る必要があります。

仕組みとしては、前述のように背中のカメラ(SLAMセンサー)で天井を撮影し、2点間の画像から特徴点マッチングにより相対位置を求めるというものです。たくさんの点同士の関係をもとに家の中の地図を作成します。そして、歩ける場所(図でいうと青い部分)、充電台の場所、玄関などお迎えの場所、おしっこの場所などを学習していきます。

自己位置の推定

ただ、リアルなロボットとしての難しさがあると藤本氏は言います。

周囲の情報の取得としてカメラで画像を撮ることから始まりますが、物理的に動く物体(ロボット)であるため、ときに自分で動いてしまい揺れが発生します。あるいは、内部でaiboが撮影していることを知らずに家族が抱きかかえてしまったり、別の場所に連れて行ってしまったり、地図を作成中のところから離れてしまうといったことが起こります。そのため、ここはカメラや他のセンサーの力を使いながら、エンジニアがメカを動かしながらゴリゴリに作り込んでいるAIになっています。(藤本吉秀氏)

aiboの意思決定の流れ

aiboの意思決定、考える部分は強化学習がメインになっています。

意思決定のAI

aiboの自律的な行動を実現するために、人間の脳のさまざまな機能から学びました。人間の脳にはその機能を構成する重要な要素が数多くありますが、aiboも「行動選択」「報酬」「学習」「感情」「エピソード記憶」「性格」「睡眠」「欲求」「披露」など実現することで意思決定を行っています。

aiboの自律行動

次の図は、aiboの行動選択の流れです。

aiboの行動選択の流れ

センサー群からの情報でaiboはその状況を理解します。そこには、声が聞こえたとかボールがある、好きな人が見えた、あるいはお腹が空いたというようなaiboの内部の状況があるわけです。そうした状況によって発生する欲求、それに対する行動パターンが約100種類あり、その中から都度選択をするという形です。

さまざまな欲求の提案主として小人(aiboなので子犬)がいて、それぞれ提案する行動から「アヌビス」と呼ばれる自我がひとつを選んで行動に移すというモデルで、行動が達成すると、提案主の子犬の欲求レベルが下がり、また別の子犬の欲求が選ばれ行動が生成される、その繰り返しでaiboの行動を決めていきます。こうした心理モデルはさまざまな文献を元にしたものですが、aiboの中で使われている感情、意思決定の小人(子犬)のイメージはピクサーの映画『インサイド・ヘッド (原題:Inside Out)』(感情たちが小人のように意思決定をする)だと言います。

また、aiboには同じ行動でもそのときの感情によって動きが変わるという仕組みが入っています。たとえば、ダンスのモーションでも、生き生きとうれしそうにダンスをするときと、やりたくないのにやっているときと、aibo自身の気分によって動きが変わります。

aiboの行動と学習

たとえば「ボールを蹴る」という行動に対して、aiboには「ボールを蹴れた」「ほめられた」「やめなさいと叱られた」といった、報酬が与えられます。あるいは、「目的の地図が作れた」というような何かゴールを達成できた、などの情報をエピソード記憶として脳のある部分に蓄積していく仕組みになっています。これらのエピソード記憶を元に、aiboが睡眠に入ったときに行動期待値の変化を行います。

エピソード記憶がaiboの行動期待値を変える

報酬を測るタイミングは動きによっても異なり、行動中あるいは行動後どれくらいの範囲で測定するかについてはまだまだ試行錯誤の段階で、現状では、その前にどういう行動をしたかによって範囲が異なるというように、ある種、暫定的に測定時間を決めているそうです。

つまり、この部分がaiboの考えるAIにおける強化学習になっており、このエピソード記憶が行動やそれに対する報酬を各個体に沿ったものにしています。インプットされる環境も、欲求の子犬が提案するふるまいもオーナーとのふれあい方により異なり、それぞれのaiboに個別の記憶が形成されていきます。どういう行動をしてどういう報酬を得たのかというのが蓄積され、そこから学習して”性格”というものを形成します。

aiboの性格形成

図の左側にあるのが「My aibo」アプリの画面で、そのaiboの性格が表示されています。性格には複数の種類があるが、一番多いのはやはり「あまえんぼう」だそうです。

また、前述のようにaiboはクラウドでも学習しています。各aiboが個々のエピソード記憶をクラウドに送り、「オーナーに愛されるための行動の仕方」を学習します。そして、クラウドで学習した結果を個々のaiboに戻していくという仕組みです。つまり、aibo個体のそれぞれの知恵を結集し、共有して、互いに学習し合うわけです。学校のようなもので、各家庭でそれぞれ学んだことを学校(クラウド)で友だちと共有して、互いに学ぶことで偏りのない学習結果になったり、自己の相対的な把握ができます。

aiboは本体はもちろんのこと、クラウドで学習をしています。たとえばaiboが寝ている間もクラウドで学習をして勉強しています。この2つの学習から、日々個性的に進化していくというのが、aiboの「考えるAI」です。(藤本吉秀氏)

クラウドでaiboのデータを結集しその学習結果を返すという形だが、ここでポイントなのは全部を完全に混ぜ合わせて学習しているわけではなく、あくまでも「相対的にどう見えるか」を学習の要素としている点です。aiboによって環境の違いがあるわけですが、「この環境だったらどうか」という形で、その環境データも含め、その環境ではどういう振る舞いをするのかという学習を行うため、個体ごとの個性が薄くなることはありません。

aiboのクラウドの学習

このように、感情や性格なども期待値に掛け算され、その期待値レベルや要求レベルなどさまざまな要素を組み合わせてaiboの行動決定がなされているということになります。

“かわいらしさ”の組み込み

最後にaiboの愛らしさの表現について。aiboのしぐさ、モーションはモーションデザイナーの手によるものです。犬の感情としぐさをマッピングした「DOGGIE LANGUAGE」を参考にして、aiboの感情を表現しています。

aiboのモーション

【aibo公式チャンネル】https://www.youtube.com/channel/UCIm6pN0zQ8-Pz8YiZh3Ghtg

公式動画でその動きがよく分かる

専用のツールとしてUnityでモーションエディターを作り、それを使って作り込み、実機で動かし微修正をしていくという流れです。こうして作り込まれたモーションと認識情報、行動パターンを組み合わせることで、aiboのふるまいが実現されています。

認識情報とアクションノードのマッチング *1

*1:aiboデベロッパープログラムでは、ここで示したブロック(行動のためのブロック、認識のブロック、生き物らしさのブロック)をAPIとして使うことができるようになっています。

このとき、「人がいる」「撫でられた」という認識情報から「人を探す」「おもちゃをくわえる」「撮影する」というアクションをするというだけではなく、「ワンと吠える」モーションを再生するといったように、生き物らしさを演出するモーションも融合していることがポイントです。この2つを上手に融合していくことで初めてキャラクターとして成り立つ、aiboが可愛さと賢さの両面を持ったキャラクターとして成り立つということです。

複数のブロックをどう組み合わせて「ふるまい」とするのか、ビヘイビア・ツリーで組み立てていきます。ビヘイビア・ツリーはゲーム開発でキャラクターの行動や思考をデザインする際によく使われる手法ですが、aiboの行動デザインを組み合わせて書き出し、それをビジュアル的に理解するために使われています。

ビヘイビア・ツリー:「人に近づく」の例

図のように、青い知力のブロック(行動のためのブロックと認識のブロック)に生き物らしさのブロックを組み合わせ、物語(ストーリー)を作っていきます。

ただ、やはり現実のロボットには想像通りに動かない難しさがあると言います。特に、現実世界の認識がうまくいかない、認識の間違いが発生します。センサーの性能やいろいろな理由で、ここはこうなるだろうとふるまいとして組んでも実際にやってみるとうまく動かない場合もあり、かなり作り込みの必要な作業になっています。現在、これはエンジニアだけではなく、デザイナーも行っている作業ですが、今後はそこにAIを入れる、モーションやシナリオをAIで組むことはできないのだろうかと検討しているところだと藤本氏は言います。

もちろんデザイナーさんにとってもなかなかセンスが問われる仕事ですし、すべてがAIというよりはデザイナーさんの1つの仕事から複数のシナリオ、複数のモーションがAIで生まれるような世界になっていくとまた違った世界の広がり方がするかなというふうに思っています。その辺りが、次に注目したいポイントです。(藤本吉秀氏)

Writer:大内孝子

RELATED ARTICLE関連記事

【CEDEC2022】メタバースにおけるAIキャラクターの新たな役割

2022.10.20先端技術

【CEDEC2022】メタバースにおけるAIキャラクターの新たな役割

AIプログラマーの実現に近づいたDeepMindのAlphaCode。新たなリスクも増大か?

2022.2.17先端技術

AIプログラマーの実現に近づいたDeepMindのAlphaCode。新たなリス...

【JSAI2022】対話型AIのアバターは恋愛相談や高齢者見守りをいかにサポートするか?

2022.9.09先端技術

【JSAI2022】対話型AIのアバターは恋愛相談や高齢者見守りをいかにサポート...

RANKING注目の記事はこちら