发烧论坛

注册

 

发新话题 回复该主题

请教关于银圈版的问题 [复制链接]

1#

所谓银圈,只是早期宝丽金系统的制片厂的机器制作的一种样式而已——也就是镀铝工序的时候把整张片子都涂满而已。

同一唱片(也就是说同样的模子生产的,没有重新混音的),稍后生产非银圈样子,假如说音质和银圈版有不同的话,原因无非有二:第一可能就是由制片厂保存的父版,制作用于生产用的母版、子版的时候没有严格做好,产生额外的误差;第二的可能就是父版本身或许由于多次复制使用等各种原因,产生损耗。

至于模拟母带的录音,头版和再版意味着不同的混音,和不同的A/D转换。我个人来看,A/D和D/A是两种相当不同的过程,我觉得D/A要比A/D难很多——至少从原理来看是这样的(音频A/D的本质便是,你在每一个规定的时间点,记录下电平大小即可;而D/A则远复杂得多,理论上至少是要进行积分运算的)。因此我不太觉得因为数码科技的进步会导致A/D有比较本质的进步(对于相同的取样格式来讲),相反数码硬件技术进步的最大收益者是解码器,和新的诸如mp3、wma等编码格式。

因此,假如说数码科技进步对A/D有影响的话,那除了机器的测量精度或许准确些之外,那应该多数是采用类如高格式取样然后再down sampling到CD格式这类技术——不过这一类技术,本质上都是或多或少地采用了听觉心理学的结论,或者额外地用一些算法把母带的背噪消除而已。PCM格式就注定与量化误差是共存的,这是无法消除的。对于同一种编码格式之下,绝对不可能有某一种做法会使得量化误差特别小的。

我们听到采用高取样率A/D然后Down Sampling到CD格式的CD,音质和早期头版有所不同,不是因为数码硬件技术变化的原因——而是混音工程师在模拟母带那一环节采取了不同的混音;还有就是在A/D完了之后,混音工程师用计算机软件去人为地“修饰”声音而已。
分享 转发
TOP
2#

Raxel 在 2006-2-8 6:18:23 发表的内容
首先什么才能算是比较本质的进步,是一个很含糊的说法.但如果认为A/D技术在20多年来没有很大的改近,那完全是对这方面的不了解,同时也是对apogee,benchmark,dCs等等诸多ADC生产厂商的的嘲笑,他们20多年来都在干什么了?

如果认为ADC就是"每一个规定的时间点,记录下电平大小即可",那么建议去了解一下ADC究竟需要完成什么工作.

K2,UV22等等编码技术,也都是空名一个?没什么差别的?

就说mp3压缩,不也有不同的编码技术吗.那为什么lame比较受欢迎呢?还要经常更新?


我并不是说A/D的硬件实现很简单。我的意思是指,所有模拟-PCM数码转换芯片,无论它们用什么方式、什么电路结构去实现,它们最终要实现的目的肯定是“每一个规定的时间点,记录下电平大小”——它们必须要实现这个,不然的话编出来的就不是PCM格式了。

但是很明显现实中的A/D电路要考虑很多因素,比如说为了防止低电平是量化误差对音质的显著影响要加进Dither等步骤,并且抗alaising的滤波器设计也很考验智力,还有时钟同步的问题、电路噪音等等——诸如此类都是在不断改进和发展的,并且是有效果的。但我的意思是,这些进步,虽然要耗费不少人力物力,但是困难程度仍然比不上D/A技术的发展,我个人心目中的“本质”,举个例子:PCM和Delta-Sigma这两种取样格式才能算是“本质”的区别。

既然说到A/D的硬件,这里转贴一个很好的参考资料:

===============================
A/D 转换器的绝对精度参数包括量化误差、积分误差、微分误差、满量程误差、偏移误差和单一性等所有误差的总和。它定义为任意数码的实际转换值和理想转换值之间的最大偏差。 当VDD =VREF 时,A/D转换器( 在器件的规定工作范围内) 的绝对误差为< ±1 LSb ;然而,当VDD 偏离VREF 时, A/D 转换器的精度将下降。

在一个给定的模拟输入范围内, A/D 的输出数字数码是相同的,这是因为模拟输入被量化到数码了。 典型量化误差为± 1/2 LSb,并存在于整个模拟数字转换过程中。减小量化误差的唯一方法是提高 A/D 转换器的分辨率。

偏移误差是首个实际数码转换电平与首个理想数码转换电平的差值。偏移误差使整个传递函数发生平移。通过模拟输入端的总漏电流和源阻抗的相互作用,偏移误差可在系统外校准或引入系统。

增益误差是指经过偏移误差调整后,末次实际转换电平与末次理想转换电平之间的最大偏差。增益误差显示为传递函数的斜率变化。 增益误差和满量程误差的区别在于满量程误差不考虑偏移误差。 增益误差可通过软件校正以从系统中消除。

线性误差是指数码一致性的变化。线性误差不能从系统中校准。积分非线性误差是指经过增益误差调整后,各个输出数码的实际转换电平和理想转换电平之间的差值。

微分非线性误差是指最大实际数码宽度和理想数码宽度之间的差值, 该误差无法校准。
===============================

因此我觉得现在这么多厂商努力的方向是使用更好的电路结构和设计,去使得取样数据的精度能够尽可能高。但问题是目前似乎不容易找到工业界最新式A/D和80年代的A/D产品的性能比较。比如说Abbey Road录音室使用的Lavry A/D,它家最新的产品AD122-96 MKIII说明书里,提到的新技术“Vernier Transfer Function Correction”,是一项使编码器电路性能保持稳定的技术;而“Acoustic Bit Correction”则是一项噪声整形的技术,并且说明书里也标明,用于Dither的噪音,这项技术是“shape the noise psychoacoustically.”(听觉心理学的因素),并且上面也写着:如何设置这项技术的参数,是由使用者根据自己的口味和音乐的风格来决定。因此给我的感觉是,新式的A/D除了电路性能更好之外,最主要的听觉上的改进要归功于:向用户提供一些可设置参数的功能,使得用户在模数转换中,按照自己的口味可以更容易地做更多的事情——但千万不要认为这些设置就代表了新的算法——这完全是因为量化误差所迫使我们用Dither的,这个步骤是在A/D之前所加进来的,严格来讲还不属于A/D转换具体这一步。

因此我一直觉得,决定成品CD的音效的,混音工程师的调整远重要于设备的年代。甚至我想验证一下:1986年的专业A/D和2006年的专业A/D,两者都正确地设置好,采用等同的参数,在相同的模拟母带混音下,编出来的CD数据,采用盲听的测试方法,我们的耳朵能否分辨出来呢?——这使我联想到80年代Linn老板分辨模拟与数码的音效的那个试验,那个实验中他是分辨不出原始的模拟信号,和此模拟信号经Sony F1编码然后解码播放的效果之间的区别。因此我觉得在80年代初,民用的A/D就已经能够做到在听觉上忠实于原始模拟信号了,并且已经忠实到人耳分辨不出这种程度了——当然现代A/D的技术性能肯定更好,但问题是:抛除噪音整形的设置这一环节,新旧A/D的效果人耳能否听出区别?

K2,UV22这些技术的实现过程中,都是有应用了听觉心理学的成果的。PCM的A/D + D/A整个过程的理论误差是有下界和上界的,其具体表达式可以由Kashin-Garnaev-Gluskin定理给出,因此不管是什么方式的A/D,它们的声音都是有个大概相同的模样的。所以假如K2、UV22这类有商标的“技术”不运用一些听觉心理学对声音加以修饰的话,它们听上去不可能风格是如此之不同的。

其实数码技术在上世纪很早的时候就开始被研究和开发了,只是在80年代中期商业上推广数码唱片,使得我们主观上觉得数码音频的开端是七八十年代而已,因此心理上会觉得80年代的技术尚处于萌芽。

关于mp3,mp3就是应用了听觉心理学的成果而产生的技术,它的大致原理是:对于人耳特别敏感的频段,mp3格式尽量保持与CD差别不大的信息量,对于人耳不太敏感的频段,mp3就压缩这些频段的信息。所以在制作mp3文件的时候,如何定义“敏感”和“不敏感”,还有“如何压缩”、“压缩到什么程度”——对于这些方面的不同定义和操作就会形成不同的编码方式——但CD的编码则无需考虑这些方面。mp3在编码的同时要对信号进行频谱分析,这是mp3最大的特点。Lame所不断改进的是如何更好地区分“敏感”与“不敏感”,还有“压缩程度”如何,以使得编出来的mp3在听觉上更为舒适,更加接近wave文件;另外它改进的还有算法的速度,新版lame代码的运算效率要比旧的快很多。
最后编辑felixcat
TOP
3#

Raxel 在 2006-2-8 9:31:16 发表的内容
不同DAC解码器的根本原理也是相同的,否则就不是PCM解码了.但其中具体用到的参数,优化手段,就是DAC进化的表现.ADC也是类似的.


Raxel兄这样说的话。。。

不同的DAC采用的根本原理是有本质的不同的,真是彻彻底底的不同——不仅仅是参数、优化手段这些方面的不同。比如用于解PCM码的1 Bit DAC,用的是Delta-Sigma方式——这种不同绝对不是不同厂家的ADC的那种“不同”了——它用的是完全不同的原理。

这里是唱片论坛,我们还是讨论音乐吧。对于ADC这个话题,或许我们日后当面聊聊?
TOP
发新话题 回复该主题