技術進化で大きく変わったゲーム音楽制作、祖堅正慶が操る Cubase で作る世界
さまざまな名曲が生み出されるゲームの世界。でも、その制作現場でどんなことが行われているのかはなかなか知ることができません。そんな中、4月29日に幕張メッセで行われたニコニコ超会議のスクウェア・エニックスのステージでは、ファイナルファンタジーXIV の楽曲がどのように作られたのか、その舞台裏を披露してくれました。
ここではスクウェア・エニックスのサウンドディレクターである祖堅正慶さんが、Cubase のプロジェクトを広げるとともに、昔のファイナルファンタジーシリーズの曲をモチーフに最新版楽曲へとアレンジしていく技を見せてくれたのですが、もっとその詳細を教えてほしいと、あらためてインタビューさせていただきました。
転職とともに、PC 環境を Windows と Cubase に
- ニコニコ超会議で、ファイナルファンタジーXIV の音楽は Cubase を使って制作されていたことが披露されました。これについていろいろ伺いたいのですが、そもそも祖堅さんと Cubase の出会いはいつ頃だったんでしょうか?
もともと仕事上の DAW と言えば当時の会社支給で Mac の Logic を使っていたのですが、2000年ごろに当時のスクウェアに転職したのをキッカケに Cubase を使うようになりました。入社する際に「DAW を1セット揃えるけど、何がいい?」と聞かれたんですよ。ゲームの開発って Mac よりも Windows の方が相性がいいのは十分分かっていたので、転職のタイミングに DAW も Windows に乗り換えようと思っていたのです。じゃあ、Windows だったら何がいいだろうか…と考えたとき、本格的な業務用として使える DAW というと、当時は Cubase しか選択肢がなかった、というのが実際のところですね。それ以来、ずっと Cubase ユーザーです。
- ゲームの開発は Mac ではなく、Windows の相性がいいという話、もう少し詳しく教えてください。
単に音楽制作をするのであれば、Mac でも Windows でも好きなものを使えばいいと思います。でもゲームの音楽制作というのは曲を作れば終わりというわけではありません。「ゲームに音楽や効果音やボイスを実装する」という専門的作業があり、ゲームの中に音を溶け込ませる必要があるのです。そのためには、まずゲーム機を起動し、それと PC を接続した状態で、ゲームの画面の動きなどを専用のツール等を使って細かくチェックしながら、タイミングやインタラクティブ性に合わせて音を作りこんでいく作業になります。こうしたゲームサウンド開発は、そのツールが Windows ベースでできているものが多いため、Windows で操作することになるんですよ。そのため、こうした環境のなか Mac で音楽制作をしていると、逐一 Windows 用にデータ変換したり、専用ツールにいちいち転送する必要があるなど、とても作業が煩雑になってしまうのです。
- ということは、スクウェア・エニックスでは Windows ベースで Cubase を使っている人が多いんですか?
Windows ユーザーが多いことは確かですが、とくに縛りがあるわけではないので、人によって、さまざまですよ。音楽だけ作っている、というスタッフもいるので Mac で Digital Performer を使っている人もいれば、Logic Pro を使っている人もいる。とはいえ、実際社内を見回してみるとやはり Cubase ユーザーが一番多いですね。
30年の歴史を持つファイナルファンタジー、音源環境は激変した
- ファイナルファンタジーは1987年にファミコン用に登場してから、間もなく30年とのことですが、ゲーム音楽作りという意味では、どんな変化があったのでしょうか?
本当にさまざまな変化、進化がありますが、昔と今で大きく違うのは、ゲーム機のハードウェア自体の進化ですね。昔は扱えなかった "オーディオデータ" が、今では自由に使えるようになりました。ファミコン時代は PSG 音源しか扱えなかったわけですが、初代プレイステーションでも数百 KB という限られたメモリー領域の中に、それぞれのシーンに合わせた特製の音源プリセット20音色程度をロードし、それを MIDI のような専用データでトリガーして鳴らすという手法をとっていました。それが、いまでは本当にオーディオデータ自体を鳴らすわけです。まあ携帯ゲームなど、一部で昔ながらの手法を用いるケースはありますが、家庭用ゲーム機はもちろん、PC ゲーム、スマホにいたるまで、ほぼ "オーディオデータ" での扱いになってまして、MIDI は介在しません。
- MIDI を使わずすべてオーディオで、というのはゲーム音楽制作の現場からすると嬉しいことなのですか?
音の表現の幅が広がるという意味では嬉しいことだとは思います。ただし、ゲームへの実装や演出を考えると、非常に煩雑で大変なものになりました。たとえばゲームのシーンが変わるとき、MIDI ならそれに合わせてテンポデータを変更するだけでよかったといった場合、オーディオだとそう簡単にはいきませんよね。音はリッチになったけれど、以前のような自由度はなくなってしまいます。そこでオリジナルの VST プラグインのようなエフェクトをサウンドプログラマがゲーム機の中に実装して、これを使ってリアルタイムにタイムストレッチを行ったり…、という手法に変化しているんですよ。MIDI ベースで考えていた頭をオーディオベースへと大きく変えないといけないんです。
ユーザーの世代によってゲームサウンドに求めるモノが異なる
- ゲーム機自体が進化してくると、曲の作り方も変わってきますよね?
いろいろな意味で変わってきます。たとえば「大草原のフィールドに出て歩いている」というシーンを考えてみてください。ここでサウンドについて、ごく普通に考えれば、鳥の鳴き声や風がそよぐ音などを出したいところですよね。でもその昔の PSG 音源しか鳴らせない時代では、そんな効果音は出せるはずもないので、そこを埋めるための感情表現の手段としてゲーム音楽があったのです。それを使って喜怒哀楽を表現していたのです。しかも、同時発音数が3つまでで、音色の幅もほとんどないという、がんじがらめの制限の中で可能なことといえばメロディーの変化くらい。だからこそ、当時のゲーム音楽においてはメロディーが大きな意味を持っていたのです。ところが、いまのゲーム機なら映画的な表現ができてしまうので、鳥の鳴き声や風の音を直接表現することだって可能です。最近のゲーム機から遊んでいるプレイヤーさんはリアリティーを求める傾向が強いので、そこをサウンド制作でも追及することになるのですが、古くからゲームに親しんできたプレイヤーさんは、先ほど説明した通りメロディーラインというのをとても大事にするので、ここでもキャッチーな音楽が流れることを求める傾向が強い。ここに年代による大きなギャップが生じているんですよ。そこを、どのようにうまく整合性を付けるのかというのが、いま我々の直面している課題でもあるんですよ。とくにファイナルファンタジーのように30年も続いているシリーズでは、そこがとても難しいところでもあるんです。
- そんな難しい問題があるんですね!
表現方法が増えるということは、演出方法が増えるということでもあるんです。ここでは映像に音楽をどうシンクロさせるか、ということが肝になってきます。昔は MIDI データが幹だったので制作手法としては簡単に映像に同期できましたが、オーディオだと映像とのシンクロはなかなか難しい。たとえばゲーム制作側から映像に対してクワイヤを追加したいから足してくれ、という場合、MIDI ならば表現力はともかく、単一の音源データとコーラスが足された譜面データを用意するだけですので制作も数時間、容量も数十 kB で収めることができましたが、オーディオになると、コーラスをレコーディングし、重ねることで表現力は上がるけれど、映像との同期までとるとなると、レコーディングする準備やスタジオや演者の手配から譜面書きまであって、さらにポン出しする映像の準備や DAW との同期どうするの等々…、制作時間も出来上がったデータ容量も大変なことになってます。
- 現在のゲームのサウンド作りは映画にも似た感じですね?
映画の MA に近くなっていますが、映画とは抜本的に異なる点があります。それは映画の場合は尺が決まっているけれど、ゲームの場合はインタラクティブ性があるので、ボタンを押すタイミングでシーンが人によって変わったり、何もしなければ違和感なく同じシーンが長時間も続くなど、プレイヤーによって尺はまったく決まっておらず、毎回違って制作側としては予想がつかないということです。でもそれこそが、結果が決まっている映画に対して「結果はプレイヤーが決める」という、ゲームの醍醐味でもあります。たとえば、「ダンジョンを歩いているとモンスターが表れて戦闘シーンになり、敵を倒して、さらに奥へと歩き進める」というシーンを考えてみましょう。普通にダンジョンを歩いているときのバックに流れる曲と、戦闘シーンでの曲はプレイヤーの感情は異なるので、音楽も異なった方が表現方法としては良い方向に思います。でも、歩いているところから戦闘シーンに、いつ切り替わるのか予想がつかないので、まったく違う曲をスムーズに切り替えるのはなかなか難しいところです。そこで、同じ曲を2つのアレンジで用意しておくんです。そして2トラックとも再生しながら、片方をミュートしておき、戦闘シーンになるときにミュートするトラックを切り替えるのです。こうすればコード進行も BPM も同じですからスムーズに切り替わるというわけなのです。ただ1小節目3拍裏で切り替わったりすると音楽的には非常に気持ち悪いので、直後の小節頭で切り替わるような技術を導入したり、切り替える際もデジタルクリップ等が発生しないように、インバートデータの差分だけ別 ch からタイミングを合わせて鳴らすなどちょっとしたトリックもあるんですよ。
昔のファイナルファンタジーの曲をモチーフに FFXIV の曲を作る方法
- 先日のニコニコ超会議でお話しされていた編曲について改めて教えてください。
あのときお話ししていたのは昔のファイナルファンタジーの曲をモチーフに FFXIV の曲を新たに作るのを Cubase で行うというネタですね。ファミコン時代の FF では短い曲データしか入れることができなかったので、10秒程度の曲をグルグルループさせて使っていました。でも、サウンドのチームには、「このときの曲を2分にして!」なんてオーダーが来るわけなんですよ。でもいまの時代に、たった10秒の曲を音源だけリッチにしたところで、「洗脳ミュージック」なんて言われてしまいます。そこで、同じモチーフを使いつつも変化をつけるために、いろいろな組み合わせをしているんですね。Aメロ、Bメロ、サビとあるときにその順番を入れ替えたりするのはもちろん、AメロとBメロを重ねて鳴らしてしまうなんてこともします。さらに、同じゲームの中には、シーンによって異なる数多くの曲が入っていますから、別のシーンの曲をもってきてつなげたりもします。その当時の FF だと、1作につき20~30曲はありますから、単にバトルシーンの曲といってもいろいろあるので、それをうまく活用するんです。こうした組み合わせや展開の作業を Cubase を用いて行っているわけなのです。
これだけハードが進化しても、まだまだ制約だらけの音作り
- ゲーム機の進化によって、自由度は格段に向上したようですが、現在はもう制約はないと考えていいんですか?
いえいえ、制約だらけですよ。ハードウェアが進化したことで、みんなが「うぉー!」と感じるのはグラフィックのほうでしょう。高画質、絵のリアリティーは誰もが圧倒されますよね。やはり、最新のゲームもそのグラフィックの描画が非常に重要になるので、この描画に影響を及ぼさない範囲で最大限の CPU パワーを使ってサウンドクオリティーを上げていくんです。その CPU のパワーの取り分を企画やゲームプログラマーと交渉するわけですが、提示するときはもちろん「30% くれ!」と大きめの数字を言うわけですが、実際サウンドに割けるのは 7% 程度ですね。ときどき 10% 程度が割り振られると「おぅ!今回はそんなにくれるのか!」ってなります。
- 実際、その 7% 程度の取り分で、どのくらいのことができるのでしょうか?
先ほどお話しをした VST プラグインのような自社製のエフェクトを複数同時に使った状態でも、同時に 200 音程度の発音を出すことはできますよ。楽曲に関しては予め 2ch にミックスダウンされていますし、演出的に裏で 7~8 トラック同時に鳴らしていても処理負荷はたかが知れています。一方で、効果音は1秒で 300~400 程度鳴らしているんです。というのも 3D 空間でゲームが動いているので、鳥が鳴いているといってもたとえば 500m 先にいるところから徐々に近づいてくるわけで、1フレームごとに鳥の座標が変わります。それに伴い、複数のマイクポジションからの音の相対座標を換算して音量や定位、ローパス等のフィルターのバランスをリアルタイムに更新するため、かなりパワーを消費するんです。また足音一つとっても、枯れ葉を踏む音が重なり合うと減衰部では発音数は嵩んでいく一方で、加えてキャラクター毎に動作をする度に衣擦れなど動作音などを数多く出すからリアリティーが出る。本当に節約に節約して 300~400 程度という状況なんですよ。ネットワークゲームとかですと同じフィールドにその数を発音するキャラクターが何百人も同時にあちこちを走り回ったりしているので、発音数は莫大な数になります。
ゲーム音楽と効果音がバッティングしないための技
- そのような効果音と、バックに流れる音楽は担当する人も違うのですか?
僕の場合はどっちもやりますよ。もともとは効果音をやっていましたからね。ただ FFXIV では楽曲制作の仕事のほうが大きいですね。まあ、ゲームにおける楽曲はあくまでも BGM であって、主張するべきものではありません。プレイヤーが能動的に動き、そこで鳴る効果音をフィーチャーするからこそ臨場感が出てくるのであって、そこを邪魔することないように盛り立てるのが BGM の役割です。そこで、効果音側とぶつからないよう、アレンジで低音を使わないようにキック主体ではなくしたり、いろいろ工夫していますよ。
- ぶつからないようにする手法、もう少し具体的に教えてもらえますか?
FFXIV では、周波数の帯域分けというのを積極的に行いましたね。まずは効果音も曲もそれぞれで作ってくるわけですが、実際に一緒に鳴らすと「下がぶつかってくるから、帯域をわけよう」という話になるんです。そこで効果音側は 80Hz より下を、BGM のほうは 80~160Hz を用いて、その上はまた効果音で…というようにします。こうすることで、同時に音を出してもぶつからずに、クッキリと鳴らすことができるんですよ。とくに気を付けているのは、倍音主体の効果音です。たとえば、竜巻の音とか風の音はノイズの塊ともいうべきものであり、全帯域を食いつぶす。この辺もうまく帯域分けをしながら使っています。
Cubase 標準のプラグインを中心に音作りをしている
- また、音楽制作の話に戻りますが、実際、トラックを制作していく上で、音源はどんなものを使うのですか?
もちろんギターなどはオーディオをレコーディングしていくし、ソフトウェア音源も数多く使っています。音源としては最近、オーケストラが多いので EAST WEST を主体に使っていますね。もちろん Native Instruments の KOMPLETE も使っていますが、その中で最近よく活用しているのが DAMAGE です。これはオーケストラのパーカッションなんですがかなり破壊力のある音なので、ゲーム用として使いやすいんですよね。ドラムには BFD3を 使うケースが多いです。それから Cubase 標準の音源として、かなり使っているのが Padshop ですね。これ、すごく便利に使えるんですよ。たとえば、コーラス、クワイヤをレコーディングしてくるじゃないですか。でも、実際に聴いてみると音がスカスカだったりすることがあるんです。そこで、これに Padshopでの音を足してみると、自然な感じで音が膨らむんですよね。3~4人でレコーディングした音がその何倍もの人が歌ったみたいに変わるんで、すごく便利ですね。
- そのギターのレコーディングは、どのようにするんですか?
オーディオインターフェイスに直で接続して、アンプシミュレーターを使っています。KOMPLETE が入っているので Guitar Rig なんかを使うこともありますが、結構多いのが Cubase 純正のアンプシミュレーター。これがなかなかいい感じで使えるんですよ。ちなみにオーディオインターフェイスは RME の Fireface 800 を使っています。もう10年くらい使い続けているんですが、これで満足しているんで、ほかをほとんど試してもいないんですよね…。
- そのほか、エフェクトはどうですか?
Cubase 標準のエフェクトをそのまま使うケースが多いです。たとえばリバーブなんかはその典型。コンボルーションリバーブの Reverence のほうではなく、標準のリバーブをよく使ってます。またエンハンサーも Cubase 標準のものを使っています。個人的には、ほかにないくらい、かなり頻繁に使っていますね。こうした即実践の使えるエフェクトがいっぱい揃っているのも Cubase のいいところですよね。そのほかに Waves Platinum Bundle と iZotope Ozone を多少使うくらいですね。
サウンドトラックは、ゲーム用に作られたデータとはまったくの別モノ!?
- このようにして制作された曲は、当然ゲームの中に実装されるほかにサウンドトラックとしてもリリースされますよね。これは同じ音源が使われているのでしょうか?
いまサウンドトラックはハイレゾ対応しているので、ゲームを作る環境とは違う環境で作っています。そもそもゲームの制作期間って、すごく短くタイトなので、悠長に 96kHz / 24bit で作って、ひとつずつコンバートするような暇がありません。そのため最初から 44.1kHz / 16bit で作っているのです。でも、それをサウンドトラック用にアップコンバートすればいい、というわけにもいきませんから、まったく別の環境で作り直しています。もちろん、使っている MIDI データや録音したオーディオ素材はそのまま使いますが、プロジェクトとしても 96kHz / 24bit で作り直しています。Rec するオーディオデータはサウンドトラック制作を見越して全て 96kHz / 24bit 以上で Rec しています。また、先ほどお話しをした効果音とのバンド帯域の割り振りというものも不要になりますから、ローもしっかり出ていますよ。サウンドトラックは、あくまでも音楽を主体に聴かせるものですから、考え方が違うんですね。
- とはいえ、これも Cubase で作っているわけですよね?
はい、もちろんすべて Cubase 上で行っていますよ。ただし、プロジェクトの設定や EQ 設定のほかにも、リバーブでの奥行き感も調整するので、ゲームで鳴る音と比較してずっとリッチなサウンドになるんです。そのため、サウンドトラックに興味を持っていただくかたもたくさんいらっしゃいますよ。また、ハイレゾを聴いたお客さんからは「こんな音、鳴ってたんだ」なんて声もよく聞かれます。本当はゲームでも出ているけれど、気づかなかったような音がサウンドトラックではしっかり聴こえたりするんです。その辺を多くの皆さんに楽しんでいただいているようですね。
ジャンルにとらわれない、音楽的な守備範囲の広さが求められる
- 最後に、ゲームのサウンド制作を手掛けてみたいという人に向けて、アドバイスをいただけますか?
ゲームサウンドの世界は最先端の情報にアンテナを立てつつ、制作面では根性が必要ですね(笑)。あとは音楽的にどんなジャンルにも挑戦していく勇気も持っていることですね。いかに音楽的な守備範囲を広げられるかが重要であり、もちろんゲームが好きな人であることが求められます。いま、ゲームサウンド制作は、従来のゲーム機とはまったく異なり、非常にクオリティが高くなっているので、とてもやりがいのある仕事だと思います。サウンドや音楽に興味があって、ゲームが好きな人であれば、ぜひ飛び込んできてほしいですね。
- ありがとうございました。
(C) 2010-2016 SQUARE ENIX CO., LTD. All Rights Reserved.