Steinberg Media Technologies GmbH

Creativity First

Frankenstraße 18 b
20097 Hamburg

Tel: +49 (0)40 210 35-0
Fax: +49 (0)40 210 35-300

あの『ファイナルファンタジー』シリーズをはじめ、著名なゲームのサウンド制作を数多く手がけてきた祖堅正慶(そけんまさよし)さん。現在はスクウェア・エニックスのサウンドチームの運営メンバーでもある祖堅さんは、ゲーム業界では知らない人はいない日本を代表するサウンドデザイナーのひとりです。そんな祖堅さんが、サウンド制作用のメインツールとして長年愛用しているのが、Steinberg Cubase。2000年、コンピューターを Windows マシンに移行するのを機に使い始めたという祖堅さんにとって、もはや Cubase は無くてはならない存在になっています。多忙を極める祖堅さんに、ゲームサウンドの制作工程と Cubase の使いこなしについて、じっくりとお話をうかがってみることにしました。

ハードウェアが飛躍的に進化して、映像が写実的になってからは、ゲーム音楽もだいぶ変わってきた

- ゲームのサウンド制作がどのように行われているか知らない人も多いと思いますので、まずはスクウェア・エニックスさんのサウンドチームの構成からおしえていただけますか?

我々のサウンドチームを大雑把にカテゴライズすると、コンポーザーやシンセサイザーオペレーターといった楽曲を制作するスタッフと、効果音を制作するサウンドデザイナー、そして音をゲームに組み込むサウンドに特化したプログラマーに分かれます。一般の人にはプログラマーの仕事がわかりにくいと思うんですけど、ゲームというのはインタラクティブ性のあるコンテンツなので、彼らはプレイヤーの操作に合わせてどのように音を鳴らすか、ゲームの進行に合わせてどう音を変化させるかということをプログラムしているんです。サウンドチーム全体の人数は企業秘密なんですが、ゲームを制作している日本のデベロッパーの中ではかなり大所帯だと思います。  そしてぼくは、もちろん楽曲の制作も続けているのですが、効果音も昔から作っています。最近は全体の仕切りも行い、予算の管理もやっています。雑用もするので、音に関する仕事なら何でもやっている感じですね(笑)。ゲームの制作が終わった後も、サントラなどの2次著作物の制作やライブなどもあるのでたいへんです。

- サウンドはすべて社内でつくられているのですか?

プロジェクトによっては外部の会社に依頼することもあります。楽曲や効果音など、一部分だけを頼むこともありますし、5.1chのミックスとか素材レベルで発注することもありますね。

- 最近はスマートフォン向けのゲームなどもあるので、制作されるタイトルの数はむかしに比べると増えているのではないですか?

そうですね。ここ数年は『ファイナルファンタジー』シリーズのような大型のタイトルが常に4〜5本動いていて、同時にスマートフォン用ゲームといった小さなタイトルも数十本並行して動いている感じです。

- 家庭用ゲーム機はかなり高性能になっているので、制作にかかる年月も長くなっているのではないでしょうか?

ゲーム自体の制作期間はどんどん長くなっているんですけど、サウンドの制作期間も比例して長くなっているかと言えば、そうではありません。なぜかと言うと、むかしはハードウェアにいろいろな制約があって、その中でサウンドをプログラムするということにものすごい時間を費やしていたんですが、最近はハードウェアの性能がものすごく向上したので、そういう余計なことに時間を費やさなくてもよくなったんですよ。たとえばスーパーファミコンの時代は、限られたメモリの中にすべてを収めなければならなかったので、爆発音ひとつ鳴らすにしても、1秒以下のループ音を複数組み合わせてシーケンスし、“ドーン”という音をつくったり。音楽もいまは2ミックスを鳴らすだけですが、当時はMIDIでサンプラーを鳴らすような複雑なプログラムをいちいちつくっていましたから。

具体的な制作期間は、タイトルによってまちまちなんですけど、仕様設計も行うタイトルとなると、やっぱり年単位になります。仕様設計を行うということは、言ってみればシンセサイザーと音源をハードウェアの中にゼロから作っていくのと同じようなものなので。一方、スマートフォン向けのゲームですと、1ヶ月ですべて完成させてしまうこともあります。

制作期間の長さは何年か前がピークで、いまは多少短くなっているんですけど、それは制作予算が減ったからとかではなくて、ツールの進化によるところが大きいですね。むかしだったら人に頼っていた作業が、最近はツールにやらせることも可能になっているので。

これは余談ですが、サウンドってゲーム全体の制作進行の中ではいちばん下流にいるんですよ。まずは企画があって、それをプログラムで実装したら、次に取りかかるのは映像。サウンド制作はいちばん最後なんです。だから制作進行が遅れていたら、ものすごくキツいんですが、最後のサウンドで開発全体のスケジュールの辻褄を合わせるしかない。かわいそうなセクションなんです(笑)。

- 大作ゲームのムービーシーンで流れる音楽は、映画音楽と比べても遜色のないクオリティのように感じるのですが、他のコンテンツと比較したゲーム音楽の特徴というと?

ぼくはこういう仕事をしながらも、ゲーム音楽というものの定義が何なのか、よくわかっていないんですけど(笑)、歴史を振り返ってみると、ファミコンの時代は同時発音数は3音だったわけですよ。わずか3音で音楽や効果音など、すべてを表現しなければならない。そうなると、自ずと音楽はメロディー主体になってしまうんですよね。その後、発音数はどんどん増えていったわけですが、メロディーだけが際立っているというのは、ずっとゲーム音楽の特徴だったのではないでしょうか。

ただ、ハードウェアが飛躍的に進化して、映像が写実的になり、音も2ミックスを流せるようになってからは、ゲーム音楽も変わってきたような気がします。

- より映画音楽に近くなってきたという感じでしょうか?

そうですね。でも、映画だったらどんなに長い作品でも3時間じゃないですか。ゲームの場合、たとえばネットワークゲームとかになると、プレイする総時間は数千時間とか数万時間に及ぶんですよ。そんなに長時間プレイするゲームで、ずっと同じようなメロディーが鳴っているというのはやっぱりつらい。プレイヤーも飽きてしまうと思うんです。ですから、これまでゲーム音楽というとメロディー主体だったわけですけど、それがこの2〜3年で大きく変化してきたような気がしますね。具体的には、以前にも増して音で情景や状況を説明しなければならなくなってきたというか、ME の進化版のようなサウンドになってきた感じがします。

でも、映画に近くなってきたとは言っても、やっぱりゲームのほうが表現は多彩なんじゃないかと思います。映画音楽のような美しいオーケストラが鳴っていたとしても、バトルシーンに入ればロックな音楽に変わったりしますから(笑)。ただ、以前はシーンに合わせてガラっと変わった音楽も、最近はシームレスに変化するようになっていますね。オーケストラからロックに突然変わるのではなく、気づいたらロックな音楽が鳴っている感じというか。そのあたりは、つくり手のテクニックがどんどん巧みになっていると思いますね。

- 完成された2ミックスが流れるのはムービーシーンだけで、ゲーム中の音楽は現在も MIDI データで音源を鳴らすという感じなのでしょうか?

いや、最近はインゲームの音(ゲーム通常プレイ時のサウンド)も圧縮音源を随時デコードしながら流しています。MIDI データで音源を鳴らすという手法はほとんど使ってないですね。圧縮音源を流しながら、その上でSEをプログラムで鳴らすという感じです。ですから最近は、ゲーム中の環境音なんかも5.1chで流せるようになったわけですよ。これは非常に大きな進化で、先ほど音で情景や状況を説明しなければならないと言いましたけど、それは別に音楽である必要がなくなったということなんです。たとえば森をさまようシーンでしたら、むかしは音楽で森の中を歩いている感じを演出しなければならなかったんですが、いまは実際に森をフィールドレコーディングした音をそのまま流すことができるんです。以前はそんなリッチな環境音を流すことができなかったので、これは大きな進化ですね。その上で流す音楽のつくりかたも変わってきた気がします。

また、ムービーシーンのサウンドも2ミックスというのはほとんどなくなってきて、最近はほぼ5.1chのミックスですね。HDMI が普及して、5.1chの音声をそのまま出力できるようになったので、それを5.1chのまま楽しむか、ステレオにダウンミックスして楽しむかは接続するハードウェア次第というか。ムービーシーンのサウンドは、大作ゲームですと20〜30時間は入ってます。映画に換算すると10本ぶんですから、かなりの量ですよね。


- 効果音のライブラリーなどは、かなりシステマチックに管理されているのでしょうか。

そうですね。かなりシステマチックに管理されていると思います。ただ、我々のポリシーとして、ライブラリーの音をそのまま使うということは絶対にしません。ゲーム内容に合わせて必ず加工していますね。

抽象的な効果音はライブラリーを使わず、Cubase とソフトウェア音源を使ってゼロからつくる

- 祖堅さんが、いわゆる打ち込み的なことを始められたのは?

原点はエレクトーンですが、最初は自分で楽器を弾いてカセット MTR だけで曲をつくり始めて、それで打ち込みにも興味を持ってオールインワン・シンセを買ったんです。具体的にはヤマハの EOS やローランドの JV-1000 とかを買って。それで "うわ、これはおもしろい!" と一気にハマってしまいましたね。その後、コンピューターを手に入れて、ソフトは Emagic Logic を使い始めました。Logic はゲーム会社に就職してからもずっと使っていましたね。

- Cubase に移行されたのは?

2000年くらいに旧スクウェアに転職したんですけど、そのときに制作システムを再構築しようと思ったんです。ずっと Mac で Logic を使っていたんですが、効果音制作用に Sony Creative Software Sound Forge Pro も併用し始めていたので、Mac と Windows、2台のコンピューターを行き来するのが煩わしく感じたんですよ。それで Sound Forge Pro は当時 Windows 版しかなかったので必然的に Mac を捨てることになったわけですが、Windows 版の Logic は Mac 版のようにしっかり動かなかったんですよね。それで別の DAW にしようと思って使い始めたのが Cubase だったんです。以降、DAW に関しては Cubase 一筋ですね。

- Windows で動く DAW はたくさんあったと思うんですが、その中から Cubase を選ばれた理由は?

Steinberg は VST のオリジネーターですし、Cubase のオーディオ機能がいちばん魅力的だったんですよね。ソフトシンセもいろいろおもしろいものが登場していた時期でしたし、そういうものを活用するなら Cubase がいいんじゃないかなと。確か Cubase が VST から SX に移行したときだったと思います。

- 長らく Logic を使われてきて、Cubase はすぐに使いこなせましたか?

もちろん最初は戸惑いましたけど、すぐに使えるようになりました。いまはもう身体の一部のように馴染んでますね。Logic から Cubase に移行して感じたのは、これはなんでもできるソフトだなということ。欠けている機能がないというか、必要とされているすべての機能を網羅したソフトだなと思いました。あとは何をやるにしてもわかりやすい点も気に入りましたね。手に馴染んでいるというのも大きいとは思うんですけど、頭に浮かんだイメージを素早くカタチにできるソフトだと思います。

- スクウェア・エニックスさんの音楽制作チームは、全員 Cubase を使われているんですか?

いや、それぞれ好きなものを使っています。Cubase を使っているスタッフもいれば、MOTU Digital Performer や Apple Logic Pro を使っているスタッフもいますし……。でも、いちばん多いのは Cubase ですね。

- ということは、スタッフ間でファイルをやり取りされることはあまりないのでしょうか。

そんなに頻繁にやり取りするわけではないんですけど、他の制作現場と比べると、MIDI データのやり取りはするほうだと思います。たとえば少し前に手がけた『シアトリズム ファイナルファンタジー』という音楽で遊ぶゲームがあるんですけど、それをつくったときは MIDI データのやり取りをかなり行いました。スタンダード MIDI ファイルに変換すれば、DAW が違ってもほとんど問題にはならないですからね。一方、効果音などは AAF とかを使ってファイルのやり取りを行うんですけど、それは MIDI データと違ってうまくいかない場合もあったりします。

- Cubase で制作された楽曲は、最終的には別の DAW でエンジニアがミックスされるんですか?

いや、ほとんど Cubase 内で自分でミックスしています。効果音が絡む5.1chのミックスをする際は他の DAW を使いますが、2chの楽曲のミックスに関してはほぼ Cubase 内で完結していますね。同じフロアには、Avid ICON D-Control システムを導入した本格的なスタジオもあるんですけど、ああいう部屋は最終的なミックスの確認をしたり、楽器やボイスのレコーディングなどで使っています。

- 現在お使いの制作環境についておしえていただけますか。

コンピューターはずっと Windows PC で、いまは Intel Core i7 と NVIDIA GeForce GTX 580 を積んだ Windows 7 マシンを使っています。ですから、そんなに最新のコンピューターではないんですけど、普通にサウンド制作するだけだったらまったく問題ないですね。ただ、同じコンピューターで、ゲームのサウンドエンジンをチェックするためのデバッガーも立ち上げる必要があるんですよ。ちゃんと効果音が叩かれているか、どれくらいのレベルが出ているか、音源が 3D 上のどこから出ているかという情報を取得するためのツールなんですけど、それと Cubase を同時に立ち上げるとちょっとメモリや CPU がヤバい感じです(笑)。

オーディオインターフェースは RME Fireface 800 で、もう8年くらい愛用していますね。個人的には、Windows PC と Cubase、そして RME のオーディオインターフェースという三つ巴の組み合わせがいちばん安定しているんじゃないかと思ってます。この組み合わせで問題が起きたことは一度もないですし、相性が抜群に良い気がする。もしかしたら Steinberg の UR シリーズのほうが Cubase には合っているのかもと気になってはいるんですけど、Fireface 800 があまりに安定しているので、なかなか試せないでいますね(笑)。

その他には、コントローラーとして Frontier Design Alphatrack があって、あとは MIDI キーボードとスピーカー、そしてギターがあるくらいです。

- おそらくソフトウェア音源は大量にインストールされていると思うんですが、一軍選手というかメインで使っているものはだいたい決まっている感じですか?

決まってますね。ラフをつくるときは HALion One ではなく、いまだに Hypersonic を愛用しています。Hypersonic、たくさん音色が入っているのに動作が軽く、ロードも速いのでとても気に入っているんですよ。ちゃちゃっとラフを仕上げないといけないときに本当に重宝しています。まぁ、ほとんどの場合、音色はあとで差し替えることになるんですけど、ベースの音だけはすごく良くて最後まで残ることが多いですね。具体的には、Hypersonic の "Pick Bass 2" という音色に Native Instruments Guitar Rig をかけると "ゴン太" な音になって、Spectrasonics Trilian よりも良い音がするんです(笑)。さらに Cubase 標準の Overdrive で歪ませたり。最近のロックっぽい曲のベースは、ほぼすべて Hypersonic と Guitar Rig のコンビネーションですね。

- そのほか、よく使うソフトウェア音源というと?

オーケストラものは、だいたい EastWest Hollywood Strings と Hollywood Brass ですね。それとコーラスは VOXOS、パーカッションは Spitfire Hans Zimmer Percussion ばかりで、これらを Native Instruments Kontakt 上で使用しています。ドラムは FXpansion BFD 一択で、生ピアノは楽曲によって様々なんですが、最近は Garritan Personal Orchestra が多いですね。Synthogy Ivory もリアルで良いんですけど、Personal Orchestra のピアノは楽曲によく馴染んでくれるんです。

- シンセ的な音色は?

最近はシンセの音色が欲しいというシチュエーションが減っているんですけど(笑)、いちばん使うのは Cubase にデフォルトで入っている Prologue ですね。あれを加工して使うことが多いです。

- 効果音はライブラリーを使うことが多いのでしょうか?

銃声とかリアルな効果音に関してはライブラリーを使って、Sony Creative Software Sound Forge Pro で編集してつくることがほとんどですが、抽象的な効果音に関しては Cubase とソフトウェア音源でつくっています。サンプルを元につくるのではなく、Spectrasonics Omnisphere のようなソフトウェア音源を立ち上げて、ゼロからつくってしまう。そのほうがイメージに近い音ができますし、作業も早いんです。ME やジングルなんかも同じですね。どんなに大量のライブラリーがあろうと、元ネタから逸脱した音はつくれないので、Cubase とソフトウェア音源を立ち上げてしまいます。

- エフェクトに関しては?

ぼくは Cubase 標準のプラグインを使うことが多いですね。リバーブなんかは、Cubase 標準のもの以外はほとんど使わないです(笑)。あとは Waves Platinum Bundle と iZotope Ozone を使うくらいで。スタジオのコンピューターには Waves Mercury Bundle が入っていますが、自分で作業するぶんには Cubase 標準のものと Platinum Bundle、そして Ozone があれば十分ですね。

どんなシチュエーションでどんなサウンドが鳴るのかというのは、音をつくった我々も想像つかない

- Cubaseで特に気に入っている機能というと?

最近思うのは、やっぱり VariAudio は凄いなということ。あれはもう手放せないですね。VariAudio というと、歌のピッチ補正用ツールというイメージが強いと思うんですけど、ギターのフレーズのエディットにも使えるんですよ。最近はギターって、生音で録音して、アンプシミュレーターを使って音色をつくるわけじゃないですか。だからアンプシミュレーターをかける前に VariAudio を使ってエディットすれば、フレーズも好きなように変えられるというか(笑)。クオリティ的にもぜんぜん問題ないですね。あとは意外と SE にも使えるんですよ。「ピッチ&ワープ」と「ピッチを平坦化」を SE に使うと、思いがけない効果が得られたりするんです。そのむかし、Antares INFINITY という Mac 用の波形編集ソフトウェアがあったんですけど、あれで SPR Looper という処理を実行すると、同じピッチを延々伸ばすことができたんですよ。それがすごく気に入っていたんですが、 VariAudio のピッチ&ワープとピッチの平坦化機能でも、同じような効果を得ることができるんです。タイムストレッチで伸ばすとアタックまで変化してしまうので、アタックはそのままに、お尻だけをループさせるというか。もちろん VariAudio は歌のピッチ補正にも使います。

- 逆に Cubase に望む機能は何かありますか?

いろいろあります(笑)。たとえば、マーカーチャンクをエディット画面で打てるようになってほしいなとか。マーカーチャンクなんていうのは波形編集ソフトウェア向けの機能で、DAW に採用するのはどうかという意見もあるとは思うんですけどね。もちろんマーカー機能は使っているんですが、波形にマーカーチャンクを打つときは、いちいち波形編集ソフトウェアを立ち上げないといけないので面倒なんですよ。

あとは MIDI のステップ入力時のタイ機能。むかしのオールインワン・シンセサイザー内蔵のシーケンサーだと、ノートを入力して何かキーを押すと、キーを押した回数ぶんノート長を延ばすことができたじゃないですか。それが Cubase だとできないんですよ。ロジカルプリセットを使えばできるのかなと思ったんですが、どうもうまくいかなくて……。これはむちゃくちゃ搭載してほしい機能ですね(笑)。

- 最後に、ゲームのサウンド制作を手がけてみたいという人にアドバイスをお願いします。

この世界は根性が必要です(笑)。あとは音楽的に食わず嫌いでないことと、それとやっぱりゲームが好きな人のほうが向いてますね。根性があって、音楽的な守備範囲が広くて、ゲームが好きな人だったらやっていけると思います。  いま、ゲームサウンドってものすごくクオリティが高くなっているので、とてもやりがいのある仕事だと思うんですよ。こういうことを言うと怒られそうですけど、その仕事の深さは、ある意味映画以上だと思っています。だって、映画と遜色のないクオリティのサウンドが、プレイヤーの操作によって変化するんですよ。加えて最近は、そのサウンドの変化にネットワークで繋がっている他人まで介在しているんです。これは本当にすごいことで、どんなシチュエーションでどんなサウンドが鳴るのかというのは、音をつくった我々も想像つかないわけです。サウンドや音楽に興味があって、ゲームが好きな人であれば、本当にやりがいのある仕事だと思うので、興味のある人はぜひとびこんできてほしいですね。