モリカトロン株式会社運営「エンターテインメント×AI」の最新情報をお届けするサイトです。

TAG LIST
ディープラーニング機械学習CGCGへの扉安藤幸央GANニューラルネットワーク月刊エンタメAIニュース強化学習三宅陽一郎モリカトロンAIラボインタビュー敵対的生成ネットワーク音楽OpenAIQAスクウェア・エニックスシナリオNVIDIAデバッグCEDEC2019河合律子プロシージャルDeepMind人工知能学会FacebookキャラクターAIルールベースビヘイビア・ツリーGoogleCEDEC2020ゲームAI映画SIGGRAPH遺伝的アルゴリズム不完全情報ゲームメタAIナビゲーションAI畳み込みニューラルネットワーク深層学習マイクロソフトAIと倫理グーグルGDC 2021GDC 2019マルチエージェントVR森川幸人ボードゲーム自然言語処理ロボットStyleGAN自動生成GPT-3CNNVFXモリカトロンゲームプレイAIファッションHTN階層型タスクネットワークJSAI2020Microsoftイベントレポート水野勇太アニメーションガイスターNPCCLIPアートtoio吉本幸記JSAI2021スポーツディープフェイク汎用人工知能TensorFlowGDC SummerテストプレイeSportsBLUE PROTOCOL小説DALL-EStyleGAN2AlphaZeroカメラ環世界中島秀之懐ゲーから辿るゲームAI技術史研究DARPAドローンAI美空ひばり手塚治虫メタデータ通しプレイOpenAI Five本間翔太CM倫理ピクサーAdobe作曲中嶋謙互Amadeus CodeMicrosoft Azureキャリアeスポーツ音声認識PyTorchDQN眞鍋和子バンダイナムコスタジオシーマンUnity齊藤陽介マインクラフトお知らせAIアートサルでもわかる人工知能VAEUbisoftUbisoft La ForgeワークショップGenvid Technologies知識表現ウォッチドッグス レギオンIGDAどうぶつしょうぎジェイ・コウガミ音楽ストリーミングマシンラーニングクラウドコンピューティショナル・フォトグラフィーGPT-2完全情報ゲーム坂本洋典釜屋憲彦ウェイポイントパス検索藤澤仁生物学画像認識NFT長谷洋平鴫原盛之masumi toyota宮路洋一SIGGRAPH ASIAソニーCycleGANフェイクニュースシムピープルGPUALife人工生命オルタナティヴ・マシンサウンドスケープASBSマンガぱいどんTEZUKA2020ナビゲーションメッシュ松井俊浩スパーシャルAIElectronic ArtsマーケティングApex LegendsNinjaゲームTENTUPLAYMARVEL Future Fightタイムラプスバスキアブロックチェーン階層型強化学習WANN竹内将馬淵浩希岡島学映像セリア・ホデントUX認知科学ゲームデザインLUMINOUS ENGINELuminous Productionsパターン・ランゲージちょまどビッグデータアストロノーカ模倣学習ナラティブFPSマルコフ決定過程スタンフォード大学パラメータ設計テニスバランス調整レコメンドシステム対話型エージェント協調フィルタリング人狼知能Amazon軍事AlphaDogfight TrialsエージェントシミュレーションStarCraft IIFuture of Life InstituteIntelロボティクスLAIKARotomationドラゴンクエストライバルズ不確定ゲームDota 2モンテカルロ木探索ソーシャルゲームEmbeddingGTC2020NVIDIA MAXINE淡路滋ビデオ会議グリムノーツゴティエ・ボエダGautier Boeda階層的クラスタリングaiboJuliusSIETPRGバーチャル・ヒューマン・エージェントtoio SDK for Unityクーガー田中章愛石井敦銭起揚茂谷保伯MinecraftGDMC成沢理恵MITメディアラボ著作権マジック・リープMagic Leap OneMagendaノンファンジブルトークンDDSPサッカー里井大輝KaggleバスケットボールAssassin’s Creed OriginsSea of ThievesGEMS COMPANYmonoAI technologyアバター初音ミクOculus転移学習テストBaldur's Gate 3Candy Crush SagaSIGGRAPH ASIA 2020デバッギングBigGANMaterialGANリップシンキングRNNReBeL自動運転車VolvoRival Prakユービーアイソフト北尾まどかHALO将棋メタルギアソリッドVFSMナップサック問題汎用言語モデルSpotifyMITReplica StudioamuseChitrakar巡回セールスマン問題ジョルダン曲線5GMuZeroクラウドゲーミングRival Peak和田洋一リアリティ番組Stadiaジョンソン裕子MILEs対話エンジンインタラクティブ・ストリーミング斎藤由多加インタラクティブ・メディアリトル・コンピュータ・ピープルシーマン人工知能研究所Ludoゴブレット・ゴブラーズTransformerSIGGRAPH 2019ArtEmis絵画ARGROVERFAIRAIりんなチート検出オンラインカジノアップルRealFlowiPhoneシミュレーションDeep FluidsMeInGameAIGraphブレイン・コンピュータ・インタフェースBCILearning from Video予期知能ユクスキュルカント哲学ドラゴンクエストエージェントアーキテクチャPAIROCTOPATH TRAVELER西木康智OCTOPATH TRAVELER 大陸の覇者アルスエレクトロニカ2019StyleCLIPDeNAStyleRig逆転オセロニア奥村エルネスト純いただきストリート齋藤精一大森田不可止高橋智隆ロボユニザナック泉幸典仁井谷正充ロボコレ2019ぎゅわんぶらあ自己中心派Azure Machine Learning意思決定モデル脱出ゲームHybrid Reward ArchitectureウロチョロスSuper Phoenix理化学研究所Project Malmo教育TextWorldProject PaidiaProject LookoutWatch ForBingLEFT ALIVE長谷川誠ジミ・ヘンドリックスBaby Xカート・コバーンロバート・ダウニー・Jr.エイミー・ワインハウスMagentaYouTubeダフト・パンクSFGlenn MarshallThe Age of A.I.Story2HallucinationレコメンデーションJukeboxGTC2021テンセントSIFTDCGANMOBADANNCE人事ハーバード大学研修デューク大学mynet.aiローグライクゲームNetHack人工音声NeurIPS 2021はこだて未来大学プレイ動画ヒップホップサイレント映画NBA環境音現代アートエージェント粒子群最適化法進化差分法群知能下川大樹ウィル・ライト高津芳希シムシティ大石真史BEiTレベルデザインDETRSporeAIボイスアクターデノイズ南カリフォルニア大学画像処理NVIDIA CanvasSentropyCPUDiscordZorkCALMプログラミングソースコード生成GMAIシチズンデベロッパーTRPGGitHubウィザードリィMCN-AI連携モデルAI DungeonMCS-AI動的連携モデル西川善司並木幸介サムライスピリッツ森寅嘉ゼビウスSIGGRAPH 2021ストリートファイター半導体Topaz Video Enhance AI栗原聡DLSS山野辺一記NetEase大里飛鳥DynamixyzモーションキャプチャーU-Net13フェイズ構造アドベンチャーゲームADVXLandAGI手塚眞DEATH STRANDING不気味の谷Eric JohnsonOculus Questコジマプロダクション生体情報デシマエンジンインディーゲーム写真高橋ミレイ照明Maxim PeterJoshua Romoffハイパースケープ山崎陽斗深層強化学習立木創太CEDEC2021バンダイナムコ研究所ミライ小町GameGANパックマンソサエティ5.0SIGGRAPH 2020DIB-R3D広告

【GDC 2021】ニューラルネットワークによるフルボディアニメーションの生成

2021.8.25ゲーム

【GDC 2021】ニューラルネットワークによるフルボディアニメーションの生成

8月19日から23日まで開催されたGDC 2021では「表現力豊かなNPCのためのフルボディアニメーション生成」と題されたビデオセッションが行われました。このセッションでは、中国大手ゲームメーカーNetEaseが開発したNPCのアニメーションを生成するニューラルネットワークモデルが解説されました。以下では、アニメーション生成モデルが開発された背景とそのアーキテクチャをまとめていきます。

既存アニメーション演出の限界

『荒野行動』『Identity V 第五人格』等を開発・運営するNetEaseは、NPCに実装するアニメーションを大量に制作しています。従来のアニメーション制作業務には、2つの問題点がありました。1つめの問題は、時間的な制作コストです。10秒のアニメーションを作るのに2日、長い時には1週間を要します。制作コストが高いために、制作したアニメーションをつなぎ合わせて実装することも少なくありませんでした。しかし、こうした方法ではアニメーションが単調になってしまいます。

2つめの問題は、アニメーションをつなぎ合わせる際に使う補間関数に関することです。あらゆるアニメーション連結を高品質に実行する補間関数は、現状では存在しません。つなぎ合わせたアニメーションは、微妙に品質が劣化してしまうのです。

以上のような問題点を克服するために、NetEaseはNPCの動作に合わせてアニメーションを生成する技術を開発することにしました。この技術の要求仕様として、短時間で変化に富むアニメーションを生成できることを掲げました。

アニメーション生成モデルの基本構造

アニメーション生成技術の開発には、ニューラルネットワークが使われました。このニューラルネットワークには、入力がNPCの音声、出力がアニメーションとなる「speech-to-animation」 というアーキテクチャが採用されました。出力はNPCの顔と胴体に実装するフルボディアニメーションとなるのですが、生成処理としては顔下部、顔上部、そして胴体の3か所を別個に生成したうえで、最終的にひとつのアニメーションに統合するようにしました。

speech-to-animationモデルの訓練に必要となる学習データは、光学式モーションキャプチャーと表情をキャプチャーするシステム「Dynamixyz」を使って人間の俳優の動作を収集して作成しました。動作の採集に際しては、顔下部は28か所、顔上部は23か所、胴体は76か所から動きをキャプチャーしました。

特徴量を絞り込んだ顔のモデル開発

以上のようにして採集した学習データは、出力となるアニメーションに関わるものです。入力となる音声に関する学習データの採集にあたっては、人間の音声を音源としました。こうした音源には、話者固有の声の震えがふくまれています。発話に対応したアニメーションを生成するには、声の個性を司る声の震えは不可欠な情報ではありません。それゆえ、声の震えは入力音声に関する学習データの特徴量として採用しませんでした。特徴量として採用されたのは、音声データにふくまれる音素でした。音素とは、統語論的に単語より小さい発音を聞き分ける最小単位を意味します。

一般に音声データの処理には、時系列データに活用されるニューラルネットワークであるLSTMが使われます。しかし、LSTMは処理に時間がかかるという欠点があります。それゆえ、顔下部のアニメーション生成モデルには画像認識に活用されるCNNを採用しました。CNNは並列処理に優れているので、多数のフレームを同時に処理できます。CNNを採用したことにより、15秒のアニメーションを生成するのに要する時間がLSTMでは500~800ミリ秒に対して、20~60ミリ秒に短縮できました。

顔上部のアニメーション生成モデル開発に際しては、入力音声データの特徴量として顔下部と同様に声の震えは削除したうえで、音素より統語論的に大きい単位である単語が採用されました。アーキテクチャにはCNNに加えて、エンコーダとデコーダが活用されました。

U-Netを活用した胴体のモデル開発

胴体のアニメーション生成モデルについては、その出力がさらに頭部、腕、胸腹部(トルソー)、脚部に細分化されます。細分化された出力に適したアーキテクチャとして、画像認識で活用されるU-Netが採用されました(下の画像参照)。U-Netとは、画像内のオブジェクト認識に加えて、オブジェクトの位置も識別できるモデルです。このモデルを使えば、例えば画像に写ったイヌがいるピクセルの範囲を特定できます。画像内の位置情報も処理できるU-Netを使えば、胴体の部位ごとにアニメーションを生成できます。U-Netには、計算量が比較的少なくて済むという利点もあります。

以上のようにして開発された胴体のアニメーション生成モデルは、キャラクターの大きさやデザインが異なっていても、適切なアニメーションを生成できるものとなりました。例えば、8等身のキャラクターとデフォルメされたキャラクターの両方に内省的な雰囲気のアニメーションを実装できます(下の画像の左側と右側参照)。

制限事項と今後の課題

NetEaseが開発したNPCに実装するアニメーションを生成するモデルは、最終的には10秒のアニメーションを60ミリ秒以下で生成できるようになりました。アニメーターが手作業で制作した場合は2日から1週間、人間からキャプチャーしたアニメーションを実装する場合には半日を要することと比較したら、ほぼリアルタイムの自動生成が実現したと言えます。

なお、今回開発したアニメーション生成モデルには、以下に挙げるような制限事項があります。

  1. 異なった骨格のNPCに対しては、異なったアニメーション生成処理を実行しなければならない。
  2. 高品質なアニメーションを生成するには、高品質な学習データをキャプチャーしなければならない。
  3. 生成されるアニメーションのスタイルは、学習データに依存する。つまり、学習データにない表情や動作は生成できない。

また、今後の課題として以下のような3項目が考えられます。

  1. 入力音声データの特徴量として、(抑揚のような)音声的な情報も取り入れる。
  2. 顔下部、顔上部、胴体のより緊密な連携を実現する。
  3. より多くの顔の表情や胴体の仕草に関するアニメーションを生成できるようにする。

以上のような制限事項や課題があるものも、NetEase開発のアニメーション生成モデルは今後さらに汎用性を高めることによって、さまざまなゲームスタジオに販売できるようなゲーム開発ツールに進化するかも知れません。

Writer:吉本幸記

RELATED ARTICLE関連記事

AIとバーチャルアイドルが出会う時:齊藤陽介氏×森川幸人氏 対談

2019.5.27ゲーム

AIとバーチャルアイドルが出会う時:齊藤陽介氏×森川幸人氏 対談

【CEDEC2020】オンラインゲーム『BLUE PROTOCOL』で敵AIにパーティを組ませる方法

2020.10.19ゲーム

【CEDEC2020】オンラインゲーム『BLUE PROTOCOL』で敵AIにパ...

ゲーム開発コスト削減の鍵となるのは「外のAI」である:三宅陽一郎氏×森川幸人氏 対談(後編)

2019.5.07ゲーム

ゲーム開発コスト削減の鍵となるのは「外のAI」である:三宅陽一郎氏×森川幸人氏 ...

RANKING注目の記事はこちら