昨今発表されているものを見ていると、一つの共通項があるのが分かってくる。それは「ゲームエンジンがゲームを超えて使えることを活用する例が圧倒的に増えている」ということだ。
今回は、その視点からこの数年の発表を見て、ゲームエンジンの価値の変化を考えてみよう。
この記事は、毎週月曜日に配信されているメールマガジン『小寺・西田の「マンデーランチビュッフェ」』から、一部を転載したものです。今回の記事は2020年10月19日に配信されたものです。メールマガジン購読(月額660円・税込)の申し込みはこちらから。
ゲームエンジンとは、ゲームを開発するために作られた統合開発環境である。ゲーム開発には良く似た技術要素が多い。古くはスコア表示やキャラクター移動のような部分もあるが、特にゲームが大規模化し、UIがマルチウィンドウ的になり、さらに3Dグラフィックスや高度なサウンド制御が必要になると、そこをどう処理するかがポイントになってくる。
大手のゲームメーカーや、独自の技術力をウリにするメーカーの場合には、そうした基礎的な部分も自社の事情に合わせて開発する。10年以上前はそれも多かった。だが、PCやスマートフォンを含めた複数のデバイスへの対応が必要になってきたこと、独自開発のコストをかけて割に合う企業の方が減ったこと、小規模のゲームメーカーが増えたことなどもあって、ゲームエンジンを導入して開発する例の方が多くなっている。
特にシェアが大きいのは、米Unity Technologiesの「Unity」と、米Epic Games「Unreal Engine」。他にも、Amazonが無償提供している「Amazon Lumberyard」(もともとは独Crytekの「CRYENGINE」だが、Amazonはそのライセンス供与を受けている)などがあるが、利用は広がっておらず、実質的にUnityとUnreal Engineの寡占構造といっていい。
まあ、ゲームでそういう利用が広がるのはいい。だが、冒頭でも述べたように、ポイントは「もはやゲームエンジンの利用領域はゲームだけではない」ということだ。
最も分かりやすい活用例は、映画における「バーチャルプロダクション」だろう。
次の写真は、1月に開催されたCESのソニーブースで撮影したものである。「ゴーストバスターズ」に出てくる自動車が置かれているだけに見えるが、背景は全て「バーチャルプロダクション」向けの仕組みだ。マイクロLEDによるディスプレイである「Crystal LEDディスプレイシステム」を使い、背景をセットとして作り込むのではなく、3Dデータで表示しているのだ。
映像はカメラの動きに合わせて画角が変わるので、単に書き割りの前で撮影しているのとは違う。CGにはちゃんと奥行きがあるわけで、その表現も活用できる。
グリーンバック合成の手間がなくなる、というのが最も大きな違いだが、それだけでなく、「細かな照り返しなどの再現がしやすい」という特徴もある。この例の場合、「床に水溜りがある」のがポイント。グリーンバック合成だと、ここには「緑の背景」が写ってしまうので細かく合成をかけないと再現できないのだが、この場合には、実際に水溜りを作れば映像が照り返すので、リアルな表現が簡単に実現できる。
ソニーは10月20日からのCEATECのバーチャル展示(動画配信)内でさらなる情報公開を行う。
また、サイバーエージェントも、韓国Samsung製大型LEDウォールディスプレイを導入し、バーチャルプロダクションのためのスタジオ「LED STUDIO」を都内に常設、11月から稼働を開始すると発表している。広告や映像制作などで、こうしたニーズが増えることを見越してのものだ。
バーチャルプロダクションには、当然「リアルタイムに高画質のCGを活用する」技術が必要になる。そこで使われているのがゲームエンジンである。
ソニーの場合、この時にはどこのものを使っているか明言しなかったのだが、その後、Epic Gamesに出資したことを考えると、同社のUnreal Engineを使っていた可能性が高い。
Unreal Engineによるバーチャルプロダクションはすでに多くの作品に使われている。最も有名なのは、Disney+向けに配信されているオリジナル作品「マンダロリアン」だろう。これについては、Epic Gamesがメイキングに関する詳しい情報を公開している。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR