作業中に気にかかった2,3のこと

作業中ちょっと気になって一応シェアしといたほうがいいかもなと思った気づきのメモ。

某仕上げの図

某仕上げの図

某仕上げの図

某仕上げの図

英語の発音

言うほど英語の発音に精通してはいないのでアレですが(昔、某所で英語コメント喋ったのは日本語コメント喋るより誤訳される心配が少ないと思ったから)。
英詞の曲のMIXを行うにあたり、レコーディング時にボーカリストに注意していただきたいのは主に2点。

  • 子音、特に単語末の子音(cat、come、feel)まで気を抜かず発音する。
  • 単語の見間違い(shirtとshit)に注意する。

要するに違う言葉に聞こえないように気をつける、ということ。詞を大事にするっていう理由もあるけど、会話中なら滅多に言われないのに歌の場合「こいつ、英語が下手だ」って言われやすいのが理由として大きいです。
何かのきっかけでネイティブの人の耳に届くかもしれない…くらいに気にしたほうがいいかなと思います。

単語末の子音までしっかり発音するためにはブレス位置を念入りに決めといたほうがいいと思います。っつか、ブレス位置を決めとくのって歌唱力を安定させる為の鉄則だと思ってたんですけど、意外と歌うたびにブレス位置変わる人が多い。

あと何となく響きがカッコイイのではと勝手に判断して、存在しない母音を新しく作らないこと。
たとえばfeelをフィーアルみたいに「ア」を入れちゃう人がまれにいて、おそらく誰か外国人シンガーの真似だと思うんですけど、この後に続くLの発音が下手だとfearに聞こえちゃって内容が変わっちゃう。

なお、レコーディングされた歌の発音修正ってまったく不可能ではなく、同じ発音で同じ(または極めて近い)ピッチ、近いデュレーションの音の箇所がもしあればそこから移植可能なのですが、これはピッチ補正に比べて相当な労力や試行錯誤の時間が必要で、なるべくならやりたくない。
また、無い発音を作り出す、つまり典型例としてはfやv、thが発音できない人の発音は修正できません(vをfに聞こえさせるのは可能)。移植する元がないですから。

トラックスタック&リージョンオートメーション

上のスクショでも随所に見られますが、今どきのキビキビとしたミキシングを行うにあたってリージョンオートメーション機能は本当にありがたいです。

またサミングスタックにはMIDI情報を置いておける(バスチャンネルにMIDIリージョンを置けるという意味)ので、Liveのようなレイヤー発音が可能。
なので、サミングスタック内の1つをプラグイン音源にしてもう1つをゲート信号用にして、リリースをコントロールしたりしてます。
ゲート用信号のチャンネルは、トラックスタック内にあるけどNo Outputにするということですね。

後述もしますが、オーディオトラックの場合には、プラグインエフェクトをリージョンオートメーションさせるためだけに、そのプラグインエフェクトをサミングスタック上に置くようにして使うとなかなか便利です。

ワウの打ち込み

相変わらずギターのワウ操作が、著しいレイテンシーを発生させてしまいウンザリ。
上の曲で使ったワウは、わざわざ別プロジェクト立ち上げてそこで打ち込んでバウンスしたものを元プロジェクトにインポートする、という旧態依然のやり方をしてます。
で、GuitarRigにも幾つかワウが付いてるけど、ディストーションかけたワウの音の感じはLogicのPedalboardのがいちばんイメージに近かった。

ともあれ、ディストーションまでいかないクランチ気味のギターを打ち込むのは猛烈にしんどい。なのでギャラが出る仕事のとき以外ではその手のアレンジを避けてます。

LogicにおけるMelodyneの扱い

トラックのOn/Offでプラグイン内の発音がオフれないMelodyne(Piapro StudioやPaulXStretchも)はけっこう煩わしいですね。

うちのテンプレでいえば、リージョンオートメーション使うなら、この状態にしてバスチャンネルにリージョンを作るということ

うちのテンプレでいえば、リージョンオートメーション使うなら、この状態にしてバスチャンネルにリージョンを作るということ

また、Logic自体の設定をし切れていなかったのか、リージョンオートメーションを設定したトラックはインプレイス時にリージョンオートメーションを無視して書き出されるので、正直インプレイスと言い難い。
なので、上のスクショのようにMelodyneだけを挿したトラックを単品のミックスバスに回してそこに追加のプラグインFXを挿す(で、もしインプレイスが必要なときはMelodyneを挿したチャンネルだけをインプレイスする)のを今後はデフォの手法として考えたほうがいいかなと思ってます。
10.3で備わった「選択ベース処理」(cf. Logic Pro X : 10.3 新機能 – makou’s peephole )ってのがもしかして使いどころ?

レコーディング時のコンプかけ録り

Twitterにも書いたのだけど、どうもボーカルがうまくトラックに馴染みにくいというか、歌わせられてる感が拭えないと思ったら、原因はコンプの掛け録りっぽかった。
かけ録り自体は別にかまわないのだけど問題はその度合いで、せいぜい出過ぎを防ぐ程度の設定値でよいのですよ。
それがまるで楽器音に対するようにスレッショルド強くアタック、リリースも早いと、波形が海苔状態になるのみならず子音と母音も切断され摩擦音も強く出過ぎて、「出ずっぱり」な感じに聞こえてしまいます。
結局、歌の1音ずつ「おそらく本来このくらいの音量で歌っていただろう」と思われる音量にいじったり、故意に特定の帯域のみ歪ませることでやっと落ち着いたのですが。

曲や歌手によっては録りの段階でガッツリかけたほうがいいケースもあるとは思いますが、個人的にはやっぱり出過ぎを抑える程度でかまわない。なにせ潰すのは後でだって出来るわけだから。

ついでなので、テイクのつなぎが雑過ぎるってことも書いておきたい。
1つのオーディオデータでこういう状態になってるのはいくらなんでもマズいと思います。

  • Aメロの最後の音がまだ残ってるのにBメロ歌い出しの息継ぎが聞こえてる。
  • 息継ぎが済む前にまた息継ぎが始まってる。

まず歌い手側(もしくはアレンジャー)が音の長さやブレスタイミングを固められていないのがよくないけれども、だからといってその状態のものをデータとしてマージしちゃったらマズいっす。そのデータを渡されても直せない。最悪ブレスの音を消せないことはないけど。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です