@miyasho やっぱりそうですよね
@JikanBae EQもいじらないしコンプもかかりません。
コンテンツ全体を聞いたとき、人間が感じる周波数特性と音量感に合わせた状態で計測しLUFSを算出
ターゲットとするLUFSに合わせて「ソース」を正規化するだけです。
@miyasho 「16 bitでフルビットに入っている音源の振幅が半分になったら実質15 bitぶんになる」という理屈であればダイナミックレンジが狭くなることが説明できるかと考えてみたのですが、いかがでしょうか?
@JikanBae サンプリングレートは変わらないので分解能は変わらず、計算上レンジは変わっていないと思います。
±1から0の世界なので
引き算ではなく掛け算なので
正規化されます
小さくなりすぎてノイズフロー以下まで埋もれると予測出来ても戻せなくなることはあると思います。
ここは一考察として聞き流してください。
@miyasho 私の理解が追いついていないのかもしれませんが……ちょっと考えてみたことをメモさせてください。
もし整数で計算されているとすると、ダイナミックレンジに影響する場合もあるかも、と思いました。かなり極端な例ですが量子化ビット数が16 bitの楽曲が、10 bitぶんレベルが叩かれる(振幅に1/1024を掛け算する=マイナス60 dB)と、6 bitで振幅を表さないといけなくなるので、ダイナミックレンジが狭くなります。
一方で、浮動小数点で計算されているのであればダイナミックレンジに計算上の違いはほぼ無いと思います。
どちらの方法で計算されているのかによって異なる結果になりそうです。また、エンコード時、再生時など、どのタイミングでレベルが小さくされているのかにも影響を受けそうです。
もちろん普通の楽曲なら上記の例のように10 bitも下がるといった極端なことは起こりませんし、わずかにダイナミックレンジが狭くなったとして、それが聴感上どのくらいの影響かは別の問題ですね。
……と、独り言の長いメモに付き合わせてしまいました、すいません。
@JikanBae 音声に行きたい