matakimika@hatenadiary.jp

WELCOME TO MY HOME PAGE(Fake) ! LINK FREE ! Sorry, Japanese only. 私のホームページへようこそ!

ゲームにおける芝居のテンポ

ゲームとアニメのアフレコの違いは「アニメは基本的に同時に録る」「ゲームは基本的にバラバラに録る」で、だからゲームで別録りなんだろうにやたら掛け合いがうまくいってるときは「職人技だなー」と思っている(「自分の台詞だけ順番に読んでいく作業的な収録でも、会話相手が居るものとして軽妙に喋ってみせる(しかも相手役の演技を想定して調子を変化させる)声優の職人技」と、「それらをうまく繋いで「全員がその場でリアルタイムに喋っている」かのようなシーンを再構成してみせるスクリプタの職人技」のコラボか?)。ボイスファイルを台詞単位で切って間をスクリプト側で制御する様式だから、どうしょうもないんだけど、間はマイナスのウェイト使えば詰めることもブレンドすることも可能よな(ADV とかなら、声を混ぜる場合も「混ざってるファイル」を作っとけばミキシングする仕様なんか要らないので、大概はそうやってんだろうけど、3D かつ 5.1ch 以上なゲームでデモ中もアングル固定じゃないシステムの場合、話者の位置関係がプレイヤの任意で変化したりとかするわけなので、かなり面倒なことになる)。というような拡張は、結局モーションキャプチャを手打ちで補正する思想と一緒で、生の呼吸そのものを活かす方向じゃないんだよな。最終的な間を作るのは役者でなくスクリプタ、その自由度を設定するのはエンジンの仕様を決めるプログラマやディレクタという。で、その自由度がいまのところ十分なものではなく、だからゲームにおいて「テンポのよい芝居」というのは現状なかなか成立しない。脚本(台詞)や単発喋り芸に頼ってる状態。芝居のレベルでいまどきのアニメや漫画に対抗するには、たぶんオートクリック 2.0 的な仕様が模索されてもよいんだろうけど、消費形態が固まっちゃってる界隈だとへたなシステム開発はブーイング呼ぶだけだったりして難しそう。

もちろんゲームの場合でもムービーパートなどでは映像と音声は一本のリールで管理できるので、アニメ同様の方法でよいはず。あと大作ゲーで金かかっててスケジュールに余裕もある場合は、なるべく一同に会して空気感を確認しつつ収録とかもしてそう(イベントシーンだけはまとめて録ります的な)。あと SS 版「ゲーム天国」のオマケで、おそらくは「声優のひとにドラマ CD 的な掛け合い芝居をやってもらって、そこにスクリプト芝居をくっつける」みたいな試みをやってる例があったかと思う。あれは多分アフレコじゃなくてゲームにおけるプレスコ