モリカトロン株式会社運営「エンターテインメント×AI」の最新情報をお届けするサイトです。

TAG LIST
ディープラーニング機械学習CGCGへの扉安藤幸央GANニューラルネットワーク月刊エンタメAIニュース強化学習三宅陽一郎モリカトロンAIラボインタビュー敵対的生成ネットワーク音楽OpenAIQAスクウェア・エニックスシナリオNVIDIAデバッグCEDEC2019河合律子プロシージャルDeepMind人工知能学会FacebookキャラクターAIルールベースビヘイビア・ツリーGoogleCEDEC2020ゲームAI映画SIGGRAPH遺伝的アルゴリズム不完全情報ゲームメタAIナビゲーションAI畳み込みニューラルネットワーク深層学習マイクロソフトAIと倫理グーグルGDC 2021GDC 2019マルチエージェントVR森川幸人ボードゲーム自然言語処理ロボットStyleGAN自動生成GPT-3CNNVFXモリカトロンゲームプレイAIファッションHTN階層型タスクネットワークJSAI2020Microsoftイベントレポート水野勇太アニメーションガイスターNPCCLIPアートtoio吉本幸記JSAI2021スポーツディープフェイク汎用人工知能TensorFlowGDC SummerテストプレイeSportsBLUE PROTOCOL小説DALL-EStyleGAN2AlphaZeroカメラ環世界中島秀之懐ゲーから辿るゲームAI技術史研究DARPAドローンAI美空ひばり手塚治虫メタデータ通しプレイOpenAI Five本間翔太CM倫理ピクサーAdobe作曲中嶋謙互Amadeus CodeMicrosoft Azureキャリアeスポーツ音声認識PyTorchDQN眞鍋和子バンダイナムコスタジオシーマンUnity齊藤陽介マインクラフトお知らせAIアートサルでもわかる人工知能VAEUbisoftUbisoft La ForgeワークショップGenvid Technologies知識表現ウォッチドッグス レギオンIGDAどうぶつしょうぎジェイ・コウガミ音楽ストリーミングマシンラーニングクラウドコンピューティショナル・フォトグラフィーGPT-2完全情報ゲーム坂本洋典釜屋憲彦ウェイポイントパス検索藤澤仁生物学画像認識NFT長谷洋平鴫原盛之masumi toyota宮路洋一SIGGRAPH ASIAソニーCycleGANフェイクニュースシムピープルGPUALife人工生命オルタナティヴ・マシンサウンドスケープASBSマンガぱいどんTEZUKA2020ナビゲーションメッシュ松井俊浩スパーシャルAIElectronic ArtsマーケティングApex LegendsNinjaゲームTENTUPLAYMARVEL Future Fightタイムラプスバスキアブロックチェーン階層型強化学習WANN竹内将馬淵浩希岡島学映像セリア・ホデントUX認知科学ゲームデザインLUMINOUS ENGINELuminous Productionsパターン・ランゲージちょまどビッグデータアストロノーカ模倣学習ナラティブFPSマルコフ決定過程スタンフォード大学パラメータ設計テニスバランス調整レコメンドシステム対話型エージェント協調フィルタリング人狼知能Amazon軍事AlphaDogfight TrialsエージェントシミュレーションStarCraft IIFuture of Life InstituteIntelロボティクスLAIKARotomationドラゴンクエストライバルズ不確定ゲームDota 2モンテカルロ木探索ソーシャルゲームEmbeddingGTC2020NVIDIA MAXINE淡路滋ビデオ会議グリムノーツゴティエ・ボエダGautier Boeda階層的クラスタリングaiboJuliusSIETPRGバーチャル・ヒューマン・エージェントtoio SDK for Unityクーガー田中章愛石井敦銭起揚茂谷保伯MinecraftGDMC成沢理恵MITメディアラボ著作権マジック・リープMagic Leap OneMagendaノンファンジブルトークンDDSPサッカー里井大輝KaggleバスケットボールAssassin’s Creed OriginsSea of ThievesGEMS COMPANYmonoAI technologyアバター初音ミクOculus転移学習テストBaldur's Gate 3Candy Crush SagaSIGGRAPH ASIA 2020デバッギングBigGANMaterialGANリップシンキングRNNReBeL自動運転車VolvoRival Prakユービーアイソフト北尾まどかHALO将棋メタルギアソリッドVFSMナップサック問題汎用言語モデルSpotifyMITReplica StudioamuseChitrakar巡回セールスマン問題ジョルダン曲線5GMuZeroクラウドゲーミングRival Peak和田洋一リアリティ番組Stadiaジョンソン裕子MILEs対話エンジンインタラクティブ・ストリーミング斎藤由多加インタラクティブ・メディアリトル・コンピュータ・ピープルシーマン人工知能研究所Ludoゴブレット・ゴブラーズTransformerSIGGRAPH 2019ArtEmis絵画ARGROVERFAIRAIりんなチート検出オンラインカジノアップルRealFlowiPhoneシミュレーションDeep FluidsMeInGameAIGraphブレイン・コンピュータ・インタフェースBCILearning from Video予期知能ユクスキュルカント哲学ドラゴンクエストエージェントアーキテクチャPAIROCTOPATH TRAVELER西木康智OCTOPATH TRAVELER 大陸の覇者アルスエレクトロニカ2019StyleCLIPDeNAStyleRig逆転オセロニア奥村エルネスト純いただきストリート齋藤精一大森田不可止高橋智隆ロボユニザナック泉幸典仁井谷正充ロボコレ2019ぎゅわんぶらあ自己中心派Azure Machine Learning意思決定モデル脱出ゲームHybrid Reward ArchitectureウロチョロスSuper Phoenix理化学研究所Project Malmo教育TextWorldProject PaidiaProject LookoutWatch ForBingLEFT ALIVE長谷川誠ジミ・ヘンドリックスBaby Xカート・コバーンロバート・ダウニー・Jr.エイミー・ワインハウスMagentaYouTubeダフト・パンクSFGlenn MarshallThe Age of A.I.Story2HallucinationレコメンデーションJukeboxGTC2021テンセントSIFTDCGANMOBADANNCE人事ハーバード大学研修デューク大学mynet.aiローグライクゲームNetHack人工音声NeurIPS 2021はこだて未来大学プレイ動画ヒップホップサイレント映画NBA環境音現代アートエージェント粒子群最適化法進化差分法群知能下川大樹ウィル・ライト高津芳希シムシティ大石真史BEiTレベルデザインDETRSporeAIボイスアクターデノイズ南カリフォルニア大学画像処理NVIDIA CanvasSentropyCPUDiscordZorkCALMプログラミングソースコード生成GMAIシチズンデベロッパーTRPGGitHubウィザードリィMCN-AI連携モデルAI DungeonMCS-AI動的連携モデル西川善司並木幸介サムライスピリッツ森寅嘉ゼビウスSIGGRAPH 2021ストリートファイター半導体Topaz Video Enhance AI栗原聡DLSS山野辺一記NetEase大里飛鳥DynamixyzモーションキャプチャーU-Net13フェイズ構造アドベンチャーゲームADVXLandAGI手塚眞DEATH STRANDING不気味の谷Eric JohnsonOculus Questコジマプロダクション生体情報デシマエンジンインディーゲーム写真高橋ミレイ照明Maxim PeterJoshua Romoffハイパースケープ山崎陽斗深層強化学習立木創太CEDEC2021バンダイナムコ研究所ミライ小町GameGANパックマンソサエティ5.0SIGGRAPH 2020DIB-R3D広告

【GDC2021】深層強化学習はNPCをナビゲーションメッシュという束縛から解放できるか

2021.9.15ゲーム

【GDC2021】深層強化学習はNPCをナビゲーションメッシュという束縛から解放できるか

ゲーム内で人間プレイヤーのように振る舞えるエージェントの開発は、ユーザーにとってのゲーム体験の向上はもちろん、ゲーム開発者にとってもテストプレイやバランス調整の負担を減らすために必要不可欠だと考えられています。その実現に立ちはだかるもっとも大きな壁は、プレイヤーとエージェントを隔てるナビゲーションに対するアプローチの相違です。その溝はゲーム構造が複雑になるほど増大していきます。

7月19日から7月24日までオンラインで開催された「Game Developers Conference」(GDC 2021)にて、Ubisoft La ForgeのR&DプログラマーMaxim Peter氏とR&DサイエンティストJoshua Romoff氏による「Deep Reinforcement Learning For Navigation(深層強化学習を使ったナビゲーションへのアプローチ)」というセッションを取材しました。

このセッションでは、Ubisoftのファーストパーソン・シューティングゲーム『ハイパースケープ』(2020年、ユービーアイソフト)の中で、深層強化学習を使ってエージェントにナビゲーションをゼロから学習させる新たなアプローチを技術検証しています。

人間とAIを根本的に隔てるナビゲーションの相違

ゲーム開発におけるナビゲーションとは、エージェントが目標地点まで移動するための最短ルートをリアルタイムで探索する仕組みを指します。人間のプレイヤーは、ゲーム画面に表示される視覚情報によって移動経路を決定し、入力デバイスによってキャラクターを操作します。一方、エージェントはナビゲーションメッシュ(Navmesh)というデータ構造と、ダイクストラ法やA*探索アルゴリズムを使ったパス検索でNPCを動かします。

関連記事:【GDC2021】『DEATH STRANDING』のNPCがプレイヤーを追跡する仕組み

『ハイパースケープ』におけるキャラクターの移動手段は、前進と後退、左右への平行移動、旋回、ジャンプ、ダブルジャンプ、ジャンプパッドの6種類です。前進後退と平行移動、旋回はナビゲーションメッシュだけで解決できますが、高低差を越えるジャンプ移動を実装するためには、離れたナビゲーションメッシュ同士を接続するためのジャンプリンクを設置しなければいけません。ジャンプリンクの設置数は、移動手段による到達距離が伸びるほど増えていきます。

たとえば、ジャンプよりダブルジャンプ、ダブルジャンプよりジャンプパッドの方が遠くへ飛べるので、必然的に移動先となるジャンプリンクの候補も増えるというわけです。ここにジェットパックやテレポートという長距離の移動手段が加われば、リンクの数は指数関数的に増えることになります。つまり、キャラクターの移動手段が増えるほど、ナビゲーションメッシュの生成コストとジャンプリンクのストレージコストは増大していきます。

また、人間のプレイヤーは複数の移動手段を直感的に使いこなしてマップを縦横無尽に動き回れますが、エージェントに同じことをさせるためには非常に複雑なアルゴリズムが必要です。当然、パス検索における計算コストも膨れ上がります。現実的なリソースの範疇で商品化できるゲームを開発するには、どうしてもNPCの移動手段やマップ構造の複雑さを制限しなければいけません。

こうした課題の根底にあるのは、プレイヤーとエージェントを大きく隔てるナビゲーションに対するアプローチの相違です。本当の意味で人間らしく振る舞うNPCを実現するためには、エージェントをナビゲーションメッシュという束縛から解き放ち、プレイヤーを模倣した直感的な意思決定ができる仕組みを作る必要があります。

深層強化学習でAIに世界の歩き方を学習させる

人間のプレイヤーはキャラクターを操作してゴールを目指す際に、それぞれの移動手段をどうやって使うかをわざわざ考えたりしません。どの場面でどの移動手段を使えば最短でゴールを目指せるかだけ考えます。それこそが深層強化学習における学習プロセスそのものです。深層強化学習は、完全にランダムな行動を繰り返すエージェントが、成功体験を積み重ねることで徐々に最適解へと自らたどり着く機械学習モデルです。ゲーム情報と各行動の報酬さえ決めれば、エージェントは報酬を最大化する行動を取れるように学習していきます。

関連記事:【CEDEC2020】テストプレイや接待プレイができるAI技術でモリカトロンが目指すこと

今回の技術検証でエージェントに与えられるゲーム情報は、前述した6種類の移動手段に加えて、目的地を示す位置座標、現在のスピードと加速度、レイキャスト(光線の反射からオブジェクト情報を取得する判定手段)によって生成されるDepth Map(深度マップ)です。Depth Mapとは、視点から対象までの距離をマッピングした画像データを指します。

深層強化学習で用いられるニューラルネットワークでは、このDepth Mapが2D Convolutions(2次元畳み込み)でベクトルへと変換されます。これらの情報がLSTM(Long Short-Term Memory、長・短期記憶)というアーキテクチャへ送られることで、エージェントは自身が歩んだ軌跡を記憶できるというわけです。このLSTMの出力がポリシーネットワークへ入力され、エージェントの次の行動を決定します。ポリシーネットワークとは、エージェントが持つすべての選択肢から最善の手を吟味するための仕組みです。

このニューラルネットワークをゲームエンジンに組み込み、5台のマシンを使って225体のエージェントに12時間から15時間学習させたということです。その結果、ナビゲーションメッシュに頼ることなくダブルジャンプやジャンプパッドを器用に使いこなしながら、広大なゲーム空間を動き回るNPCを見事に実現しています。ちなみにエージェントが小刻みに跳ぶ、いわゆるバニーホップを繰り返しながら移動してしまうのは、通常の移動よりもスピードが出てしまうゲームエンジンの仕様をエージェントが学習した結果だということです。

複数のマップでエージェントの学習成果をテストした結果、200m×200m×90mサイズのマップにおける成功率は95%、400m×400m×90mで90%、1000m×1000m×90mで74%でした。ゴールまでの距離が伸びると成功率が極端に低下するのは、レイキャストで得られる周囲の情報のみに依存しているエージェントには、遠くを見渡すような能力がないからだと考えられます。つまり、マップ内の地形によっては、エージェントが一度進入したら二度と抜け出せなくなるような事態も起こり得ることを意味します。

くわえて、計算コストでも課題が残ります。今回の深層強化学習を使ったナビゲーションの計算コストは、キャラクター1体につき毎フレーム(60分の1秒)0.3から1.0ミリ秒を要したとのこと。これに対して、ナビゲーションメッシュを使った従来のナビゲーションにおけるパス検索の時間は、およそ0.3ミリ秒だと報告されています。数体のNPCを同時に動かす程度なら問題ありませんが、100体近いNPCを想定した場合には実用化にはほど遠いパフォーマンスです。

それでもハードウェアの急速な発展に伴って、もしかしたら機械学習モデルの活用が次世代のナビゲーションを変えるゲームチェンジャーになる未来は十分に考えられます。

Writer:Ritsuko Kawai / 河合律子

RELATED ARTICLE関連記事

【GDC2021】『DEATH STRANDING』のNPCがプレイヤーを追跡する仕組み

2021.9.06ゲーム

【GDC2021】『DEATH STRANDING』のNPCがプレイヤーを追跡す...

【GDC 2021】ニューラルネットワークによるフルボディアニメーションの生成

2021.8.25ゲーム

【GDC 2021】ニューラルネットワークによるフルボディアニメーションの生成

【CEDEC2019】DeNAのゲームAI開発に見る”AIを活かす組織”とは?

2019.10.24ゲーム

【CEDEC2019】DeNAのゲームAI開発に見る"AIを活かす組織"とは?

RANKING注目の記事はこちら