[連載]高橋敦のオーディオ絶対領域
【第117回】DSDとは何か? 原理や音の特徴、おすすめソフトまでまるごと紹介
■DSDの「1bit」ってどういうこと?
DSD。そもそも複雑なアナログ音声信号をオンかオフかの2値しかない「1bit」で記録するってどういうことなのだろう?
PCMではアナログ音声信号をデジタルデータに変換する際、音声信号を波、波形として捉え、前述のようにそれを「音の高低」「音の大小」の2つの軸で作った縦×横のビットマップのマス目を埋めるようにして、いわば二次元的に記録する。ハイレゾ化というのはそのマス目を縦横共により細かくするということだ。
DSDではアナログ音声信号をデジタルデータに変換する際、それを空気振動の粗密というか濃淡のようなものとして捉える。音が空気を伝わってくるとき、実際には「〜」←こういう波の形ではなくて空気の押し引き、それによって生じる空気の「密度」の違い「|| | ||| |||| |||」として伝わってくると捉えて処理するというイメージだ。
概略的に言うと、DSDは「極めて短い時間単位にデジタルデータのオンオフ(1か0か)を並べ、そのオンオフの切り替えの粗密で音声信号を記録する」というもの。二次元的な処理のPCMに対して、こちらは1か0かのみの一次元的な処理と言えるかもしれない。
DSDでのハイレゾ化というか情報量の向上は、「オンオフ」の方はどうしたところで2値なので、もう一方の「極めて短い時間単位」のその短さをさらに極限化することで実現される。これが2.8MHz<5.6MHz<11.2MHzというスペックの意味だ。オンオフの切り替えを1秒間に何回詰め込めるか。それが多くなればなるほど粗密をより精細に記録でき、もとのアナログ信号をより忠実に再現できる。
…ということだと思うのだが、DSDの原理は正確な把握が難しく、ここは「そういうイメージ」という程度に理解しておいてほしい。
またDSDの場合、原理的に超高域には量子化ノイズが発生してしまいその処理も必要となるのだが、「MHz」を引き上げるとそのノイズが発生する帯域もより高く、人間の可聴帯域からさらに遠くに引き上げられるという利点もある。