モリカトロン株式会社運営「エンターテインメント×AI」の最新情報をお届けするサイトです。

TAG LIST
CG機械学習ディープラーニングCGへの扉安藤幸央GAN月刊エンタメAIニュース河合律子ニューラルネットワークOpenAINVIDIA強化学習三宅陽一郎音楽FacebookQAスクウェア・エニックス森川幸人モリカトロンAIラボインタビュー敵対的生成ネットワークDeepMindルールベースキャラクターAIシナリオGPT-3自然言語処理NFTGoogleグーグル自動生成映画デバッグCEDEC2019吉本幸記StyleGANプロシージャル人工知能学会遺伝的アルゴリズムメタAI深層学習マイクロソフトアートビヘイビア・ツリーCEDEC2021大内孝子CEDEC2020ゲームAISIGGRAPH不完全情報ゲームゲームプレイAIVRナビゲーションAI畳み込みニューラルネットワークDALL-ECLIPロボットAIと倫理ディープフェイクGDC 2021VFXメタバースGDC 2019マルチエージェントボードゲームNPCCNNデジタルツインモリカトロンUnityAIアートファッションHTN階層型タスクネットワークDALL-E2JSAI2020TensorFlowMicrosoftイベントレポートテストプレイ水野勇太小説アニメーションガイスターStyleGAN2懐ゲーから辿るゲームAI技術史toioソニーJSAI2021スポーツ研究シムピープル汎用人工知能GDC Summerバーチャルヒューマンブロックチェーン倫理BERTAdobeアストロノーカNVIDIA Omniverseeスポーツ対話型エージェントAmazoneSportsBLUE PROTOCOLシーマンUbisoft画像生成テキスト画像生成AlphaZeroTransformerGPT-2カメラ環世界中島秀之鴫原盛之DARPAドローンシムシティAI美空ひばり手塚治虫Electronic ArtsメタデータLEFT 4 DEADインタビュー通しプレイOpenAI Five本間翔太CMピクサープラチナエッグイーサリアム作曲ビッグデータ中嶋謙互Amadeus CodeMicrosoft AzureキャリアナラティブOmniverse ReplicatorレコメンドシステムNVIDIA DRIVE SimNVIDIA Isaac Simサイバーエージェント音声認識ロボティクスPyTorchDQN眞鍋和子バンダイナムコスタジオaibo合成音声Minecraft齊藤陽介マインクラフトお知らせチャットボットアバターサルでもわかる人工知能VAEOmniverseUbisoft La Forge自動運転車ワークショップGenvid Technologiesメタ知識表現ウォッチドッグス レギオンIGDAどうぶつしょうぎEpic Gamesジェイ・コウガミ音楽ストリーミング徳井直生マシンラーニングクラウド対話エンジン斎藤由多加リトル・コンピュータ・ピープルコンピューティショナル・フォトグラフィーゴブレット・ゴブラーズ絵画AIりんなシミュレーション完全情報ゲーム坂本洋典釜屋憲彦ウェイポイントパス検索対談藤澤仁生物学GTC 2022画像認識GTC2022StyleCLIPDeNA長谷洋平masumi toyota宮路洋一OpenSeaGDC 2022教育TextWorldSIGGRAPH ASIAGTC2021CycleGANNetHackフェイクニュースエージェントAIボイスアクターNVIDIA CanvasImagenGPUALifeZork人工生命オルタナティヴ・マシンサウンドスケープMCS-AI動的連携モデルASBSマンガモーションキャプチャーぱいどんTEZUKA2020ナビゲーションメッシュ松井俊浩バンダイナムコ研究所スパーシャルAIELYZAELYZA DIGEST3D音声合成マーケティングApex LegendsELIZANinjaコンピュータRPGアップルタウン物語KELDICメロディ言語ゲームTENTUPLAYMARVEL Future FightAstroタイムラプスEgo4Dバスキア日経イノベーション・ラボ敵対的強化学習階層型強化学習GOSU Data LabWANNGOSU Voice Assistant竹内将SenpAI.GGMobalytics馬淵浩希Cygames岡島学AWS Sagemaker映像セリア・ホデント形態素解析UXAWS Lambda誤字検出認知科学ゲームデザインSentencePieceLUMINOUS ENGINELuminous Productionsパターン・ランゲージ竹村也哉ちょまどボエダ・ゴティエGOAPAdobe MAX 2021模倣学習Omniverse AvatarFPSNVIDIA Rivaマルコフ決定過程NVIDIA MegatronNVIDIA Merlinスタンフォード大学NVIDIA Metropolisパラメータ設計テニスバランス調整協調フィルタリング人狼知能テキサス大学軍事AlphaDogfight TrialsAI Messenger VoicebotエージェントシミュレーションOpenAI CodexStarCraft IIHyperStyleFuture of Life InstituteRendering with StyleIntelDisneyLAIKADisneyリサーチRotomationGauGANGauGAN2ドラゴンクエストライバルズ画像言語表現モデル不確定ゲームSIGGRAPH ASIA 2021Dota 2モンテカルロ木探索ディズニーリサーチMitsuba2ソーシャルゲームEmbeddingワイツマン科学研究所GTC2020CG衣装NVIDIA MAXINEVRファッション淡路滋ビデオ会議ArtflowグリムノーツEponymゴティエ・ボエダ音声クローニングGautier Boeda階層的クラスタリングGopherJuliusSIE鑑定TPRGOxia Palusバーチャル・ヒューマン・エージェントtoio SDK for UnityArt Recognitionクーガー田中章愛Meta石井敦銭起揚NHC 2021茂谷保伯池田利夫GDMC新刊案内マーベル・シネマティック・ユニバース成沢理恵MITメディアラボMCU著作権アベンジャーズマジック・リープDigital DomainMagic Leap OneMagendaMasquerade2.0ノンファンジブルトークンDDSPフェイシャルキャプチャーサッカーモリカトロン開発者インタビュー里井大輝Kaggle宮本茂則バスケットボール山田暉Assassin’s Creed OriginsAI会話ジェネレーターSea of ThievesGEMS COMPANYmonoAI technologyLSTMモリカトロンAIソリューション初音ミクOculusコード生成AI転移学習テストAlphaCodeBaldur's Gate 3CodeforcesCandy Crush Saga自己増強型AISIGGRAPH ASIA 2020COLMAPADOPデバッギングBigGANGANverse3DMaterialGANリップシンキングRNNグランツーリスモSPORTReBeLグランツーリスモ・ソフィーGTソフィーVolvoFIAグランツーリスモチャンピオンシップRival PrakDGX A100VTuberユービーアイソフトWebcam VTuber星新一賞北尾まどかHALO市場分析将棋メタルギアソリッドVフォートナイトFSMRobloxナップサック問題Live Nation汎用言語モデルWeb3.0AIOpsSpotifyMITスマートコントラクトReplica StudioAWSamuseChitrakarQosmo巡回セールスマン問題ジョルダン曲線メディア5GMuZero政治クラウドゲーミングRival Peakがんばれ森川君2号和田洋一リアリティ番組Stadiaジョンソン裕子MILEsNightCafeインタラクティブ・ストリーミングLuis Ruizインタラクティブ・メディアポケモンCodexシーマン人工知能研究所東京工業大学Ludo博報堂ラップSIGGRAPH 2019ArtEmisZ世代AIラッパーシステムARrinnaGROVERプラスリンクス ~キミと繋がる想い~FAIRSTCチート検出Style Transfer ConversationオンラインカジノRCPアップルRealFlowRinna Character PlatformiPhoneデジタルヒューマンDeep FluidsSoul MachinesMeInGameAmeliaAIGraphブレイン・コンピュータ・インタフェースバーチャルキャラクターBCIGateboxLearning from VideoANIMAK予期知能逢妻ヒカリセコムユクスキュルバーチャル警備システムカント損保ジャパン哲学上原利之ドラゴンクエストエージェントアーキテクチャアッパーグラウンドPAIROCTOPATH TRAVELER西木康智OCTOPATH TRAVELER 大陸の覇者Siemensアルスエレクトロニカ2019品質保証StyleRigAutodesk逆転オセロニアBentley Systemsワールドシミュレーター奥村エルネスト純いただきストリートH100齋藤精一大森田不可止COBOL高橋智隆DGX H100ロボユニザナックDGX SuperPOD泉幸典仁井谷正充クラウドコンピューティングロボコレ2019Instant NeRFartonomousbitGANsぎゅわんぶらあ自己中心派Azure Machine Learning意思決定モデル脱出ゲームHybrid Reward Architectureコミュニティ管理ウロチョロスSuper PhoenixSNS理化学研究所Project Malmoオンラインゲーム気候変動Project PaidiaEarth-2Project Lookoutマックス・プランク気象研究所Watch Forビョルン・スティーブンスBing気象モデルLEFT ALIVE気象シミュレーション長谷川誠ジミ・ヘンドリックス環境問題Baby Xカート・コバーンエコロジーロバート・ダウニー・Jr.エイミー・ワインハウスSDGsMagentaYouTubeダフト・パンクメモリスタSFGlenn MarshallELYZA PencilThe Age of A.I.Story2Hallucination音声変換レコメンデーションJukebox松尾豊Veap JapanEAPテンセントSIFT福井千春DCGAN医療MOBADANNCEメンタルケア人事ハーバード大学Edgar Handy研修デューク大学Netflixデータマイニングmynet.aiローグライクゲーム東京大学東京理科大学人工音声NeurIPS 2021産業技術総合研究所はこだて未来大学リザバーコンピューティングプレイ動画ヒップホップキャラクターモーションソニーマーケティングサイレント映画もじぱNBA環境音暗号通貨現代アートFUZZLEAlteration粒子群最適化法RPG進化差分法オープンワールド群知能下川大樹AIFAウィル・ライト高津芳希P2E大石真史SIGGRAPH 2022BEiTStyleGAN-NADAレベルデザインDETRゲームエンジンSporeUnreal Engineデノイズ南カリフォルニア大学Unity for Industry画像処理SentropyGLIDECPUDiscordAvatarCLIPSynthetic DataCALMバイアスプログラミングサム・アルトマンソースコード生成LaMDAGMAIシチズンデベロッパーSonanticTRPGGitHubCohereウィザードリィMCN-AI連携モデルマジック:ザ・ギャザリングAI DungeonUrzas.ai介護西川善司並木幸介Kikiサムライスピリッツ森寅嘉Zoetic AIゼビウスSIGGRAPH 2021ペットストリートファイター半導体Digital Dream LabsTopaz Video Enhance AICozmo栗原聡DLSSタカラトミー山野辺一記NetEaseLOVOT大里飛鳥DynamixyzMOFLINRomiU-Netミクシィ13フェイズ構造アドベンチャーゲームユニロボットADVユニボXLandGatoAGIテキスト生成手塚眞DEATH STRANDINGマルチモーダル不気味の谷Eric Johnson汎用強化学習AIOculus Questコジマプロダクション生体情報デシマエンジンインディーゲーム写真高橋ミレイ照明Maxim PeterJoshua Romoffハイパースケープ山崎陽斗深層強化学習立木創太ミライ小町テスラGameGANパックマンTesla BotTesla AI Dayソサエティ5.0SIGGRAPH 2020バズグラフニュースタンテキ東芝DIB-R倉田宜典韻律射影広告韻律転移

【GDC 2021】ニューラルネットワークによるフルボディアニメーションの生成

2021.8.25ゲーム

【GDC 2021】ニューラルネットワークによるフルボディアニメーションの生成

8月19日から23日まで開催されたGDC 2021では「表現力豊かなNPCのためのフルボディアニメーション生成」と題されたビデオセッションが行われました。このセッションでは、中国大手ゲームメーカーNetEaseが開発したNPCのアニメーションを生成するニューラルネットワークモデルが解説されました。以下では、アニメーション生成モデルが開発された背景とそのアーキテクチャをまとめていきます。

既存アニメーション演出の限界

『荒野行動』『Identity V 第五人格』等を開発・運営するNetEaseは、NPCに実装するアニメーションを大量に制作しています。従来のアニメーション制作業務には、2つの問題点がありました。1つめの問題は、時間的な制作コストです。10秒のアニメーションを作るのに2日、長い時には1週間を要します。制作コストが高いために、制作したアニメーションをつなぎ合わせて実装することも少なくありませんでした。しかし、こうした方法ではアニメーションが単調になってしまいます。

2つめの問題は、アニメーションをつなぎ合わせる際に使う補間関数に関することです。あらゆるアニメーション連結を高品質に実行する補間関数は、現状では存在しません。つなぎ合わせたアニメーションは、微妙に品質が劣化してしまうのです。

以上のような問題点を克服するために、NetEaseはNPCの動作に合わせてアニメーションを生成する技術を開発することにしました。この技術の要求仕様として、短時間で変化に富むアニメーションを生成できることを掲げました。

アニメーション生成モデルの基本構造

アニメーション生成技術の開発には、ニューラルネットワークが使われました。このニューラルネットワークには、入力がNPCの音声、出力がアニメーションとなる「speech-to-animation」 というアーキテクチャが採用されました。出力はNPCの顔と胴体に実装するフルボディアニメーションとなるのですが、生成処理としては顔下部、顔上部、そして胴体の3か所を別個に生成したうえで、最終的にひとつのアニメーションに統合するようにしました。

speech-to-animationモデルの訓練に必要となる学習データは、光学式モーションキャプチャーと表情をキャプチャーするシステム「Dynamixyz」を使って人間の俳優の動作を収集して作成しました。動作の採集に際しては、顔下部は28か所、顔上部は23か所、胴体は76か所から動きをキャプチャーしました。

特徴量を絞り込んだ顔のモデル開発

以上のようにして採集した学習データは、出力となるアニメーションに関わるものです。入力となる音声に関する学習データの採集にあたっては、人間の音声を音源としました。こうした音源には、話者固有の声の震えがふくまれています。発話に対応したアニメーションを生成するには、声の個性を司る声の震えは不可欠な情報ではありません。それゆえ、声の震えは入力音声に関する学習データの特徴量として採用しませんでした。特徴量として採用されたのは、音声データにふくまれる音素でした。音素とは、統語論的に単語より小さい発音を聞き分ける最小単位を意味します。

一般に音声データの処理には、時系列データに活用されるニューラルネットワークであるLSTMが使われます。しかし、LSTMは処理に時間がかかるという欠点があります。それゆえ、顔下部のアニメーション生成モデルには画像認識に活用されるCNNを採用しました。CNNは並列処理に優れているので、多数のフレームを同時に処理できます。CNNを採用したことにより、15秒のアニメーションを生成するのに要する時間がLSTMでは500~800ミリ秒に対して、20~60ミリ秒に短縮できました。

顔上部のアニメーション生成モデル開発に際しては、入力音声データの特徴量として顔下部と同様に声の震えは削除したうえで、音素より統語論的に大きい単位である単語が採用されました。アーキテクチャにはCNNに加えて、エンコーダとデコーダが活用されました。

U-Netを活用した胴体のモデル開発

胴体のアニメーション生成モデルについては、その出力がさらに頭部、腕、胸腹部(トルソー)、脚部に細分化されます。細分化された出力に適したアーキテクチャとして、画像認識で活用されるU-Netが採用されました(下の画像参照)。U-Netとは、画像内のオブジェクト認識に加えて、オブジェクトの位置も識別できるモデルです。このモデルを使えば、例えば画像に写ったイヌがいるピクセルの範囲を特定できます。画像内の位置情報も処理できるU-Netを使えば、胴体の部位ごとにアニメーションを生成できます。U-Netには、計算量が比較的少なくて済むという利点もあります。

以上のようにして開発された胴体のアニメーション生成モデルは、キャラクターの大きさやデザインが異なっていても、適切なアニメーションを生成できるものとなりました。例えば、8等身のキャラクターとデフォルメされたキャラクターの両方に内省的な雰囲気のアニメーションを実装できます(下の画像の左側と右側参照)。

制限事項と今後の課題

NetEaseが開発したNPCに実装するアニメーションを生成するモデルは、最終的には10秒のアニメーションを60ミリ秒以下で生成できるようになりました。アニメーターが手作業で制作した場合は2日から1週間、人間からキャプチャーしたアニメーションを実装する場合には半日を要することと比較したら、ほぼリアルタイムの自動生成が実現したと言えます。

なお、今回開発したアニメーション生成モデルには、以下に挙げるような制限事項があります。

  1. 異なった骨格のNPCに対しては、異なったアニメーション生成処理を実行しなければならない。
  2. 高品質なアニメーションを生成するには、高品質な学習データをキャプチャーしなければならない。
  3. 生成されるアニメーションのスタイルは、学習データに依存する。つまり、学習データにない表情や動作は生成できない。

また、今後の課題として以下のような3項目が考えられます。

  1. 入力音声データの特徴量として、(抑揚のような)音声的な情報も取り入れる。
  2. 顔下部、顔上部、胴体のより緊密な連携を実現する。
  3. より多くの顔の表情や胴体の仕草に関するアニメーションを生成できるようにする。

以上のような制限事項や課題があるものも、NetEase開発のアニメーション生成モデルは今後さらに汎用性を高めることによって、さまざまなゲームスタジオに販売できるようなゲーム開発ツールに進化するかも知れません。

Writer:吉本幸記

RELATED ARTICLE関連記事

【GDC 2021】NPCの高度なインタラクションを可能とした『ウォッチドッグス レギオン』のグループビヘイビア

2021.8.17ゲーム

【GDC 2021】NPCの高度なインタラクションを可能とした『ウォッチドッグス...

AIシナリオライターは才能至上主義のアンチテーゼとなるか?:暁影二氏×森川幸人氏対談

2019.11.29ゲーム

AIシナリオライターは才能至上主義のアンチテーゼとなるか?:暁影二氏×森川幸人氏...

カウンセリングのサポートに“雑談できるAI”を:福井千春氏×森川幸人氏 対談

2022.5.10ゲーム

カウンセリングのサポートに“雑談できるAI”を:福井千春氏×森川幸人氏 対談

RANKING注目の記事はこちら