|
数字音频技术知识点及声卡驱动1 v U7 q, K; H `
关于PCM
' p7 ~6 E ^4 P7 ?
) W* J9 t0 a7 p* e' K' o4 Z; U
0 m& v- g9 S8 g+ K# L: s; BPCM 是Pulse code modulaTIon的缩写,它是对波形最直接的编码方式。它在音频中的地位可能和BMP在图片中的地位有点类似吧。- y+ {' c: ~5 N& p7 J8 t
, q: T1 A1 B: G- {' {0 KSampling rate:从模拟信号到数字信号,即从连续信号到离散信号的转换都是通过离散采样完成的,Sampling rate就是每秒种采样的个数。根据香农采样定理,要保证信号不失真,Sampling rate要大于信号最高频率的两倍。我们知道人的耳朵能听到的频率范围是20hz – 20khz,所以Sampling rate达到40k就够了,再多了也只是浪费。但是有时为了节省带宽和存储资源,可以降低Sampling rate而损失声音的质量,所以我们常常见到小于40k采样率的声音数据。( B$ W9 J, z6 S8 T F, L. W
" V! i. m. ]6 F2 H- ~3 mSample size:用来量化一个采样的幅度,一般为8 bits、16 bits和24 bits。8 bits只有早期的声卡支持,而24 bits只有专业的声卡才支持,我们用的一般都是16 bits的。
- ^' s5 P1 Z7 O+ z& ^; v5 u" t! w4 d7 Y6 x$ n; E
Number of channels:声音通道个数,单声道为一个,立体声为两个,还有更多的(如8个声道的7.1格式)。一般来说,每个声道都来源于一个独立的mic,所以声道多效果会更好(更真实),当然代价也更大。
9 h! Z( |) p* k+ C% I
7 ~& x# e. W7 A# {Frame: Frame是指包含了所有通道的一次采样数据,比如对于16bits的双声道来说,一个frame的大小为4个字节(2 * 16)。
! y' I3 k5 Q3 F4 v
7 g0 Z$ R: M1 c2 i W6 Z. n一、数字音频+ a, J! i9 R9 Z$ ~; U; r
音频信号是一种连续变化的模拟信号,但计算机只能处理和记录二进制的数字信号,由自然音源得到的音频信号必须经过一定的变换,成为数字音频信号之后,才能送到计算机中作进一步的处理。
6 C0 f/ m" _9 ]5 b% Q, @) }
, `$ D m/ e& q5 u s; ~9 \数字音频系统通过将声波的波型转换成一系列二进制数据,来实现对原始声音的重现,实现这一步骤的设备常被称为模/数转换器(A/D)。A/D转换器以每秒钟上万次的速率对声波进行采样,每个采样点都记录下了原始模拟声波在某一时刻的状态,通常称之为样本(sample),而每一秒钟所采样的数目则称为采样频率,通过将一串连续的样本连接起来,就可以在计算机中描述一段声音了。对于采样过程中的每一个样本来说,数字音频系统会分配一定存储位来记录声波的振幅,一般称之为采样分辩率或者采样精度,采样精度越高,声音还原时就会越细腻。, u" t: |/ p0 n! j% V' t* m# y9 l' j- }
4 G& o3 j1 e, T( `4 }6 J9 f: t# j( T数字音频涉及到的概念非常多,对于在Linux下进行音频编程的程序员来说,最重要的是理解声音数字化的两个关键步骤:采样和量化。采样就是每隔一定时间就读一次声音信号的幅度,而量化则是将采样得到的声音信号幅度转换为数字值,从本质上讲,采样是时间上的数字化,而量化则是幅度上的数字化。下面介绍几个在进行音频编程时经常需要用到的技术指标:
6 A/ i4 j- l( W, i( \0 A. m- v! `
7 W( t4 P" x, c u4 ?, ^采样频率$ q& [7 G) Z. c, n
# y8 C+ t" A3 U- h" d
采样频率是指将模拟声音波形进行数字化时,每秒钟抽取声波幅度样本的次数。采样频率的选择应该遵循奈奎斯特(Harry Nyquist)采样理论:如果对某一模拟信号进行采样,则采样后可还原的最高信号频率只有采样频率的一半,或者说只要采样频率高于输入信号最高频率的两倍,就能从采样信号系列重构原始信号。正常人听觉的频率范围大约在20Hz~20kHz之间,根据奈奎斯特采样理论,为了保证声音不失真,采样频率应该在40kHz左右。常用的音频采样频率有8kHz、11.025kHz、22.05kHz、16kHz、37.8kHz、44.1kHz、48kHz等,如果采用更高的采样频率,还可以达到DVD的音质。 其中,8kHZ为电话的采样频率。
0 R5 x7 T8 B) R- v/ S) R6 x. R- t4 N
5 v% V7 T3 v0 `3 F! J1 D5 q" N4 L量化位数
7 j; T" R6 L' B3 l2 r% h& z/ e3 s: H6 l9 _% F, y: l& k5 B. Z0 J
量化位数是对模拟音频信号的幅度进行数字化,它决定了模拟信号数字化以后的动态范围,常用的有8位、12位和16位。量化位越高,信号的动态范围越大,数字化后的音频信号就越可能接近原始信号,但所需要的存贮空间也越大。
2 J2 J- R4 M5 u8 P) b7 G! a
: X' G9 S4 k4 n声道数
+ E7 l* Y) ]; x! g% E( {* g/ H. H" [, W6 _5 K* K. {
声道数是反映音频数字化质量的另一个重要因素,它有单声道和双声道之分。双声道又称为立体声,在硬件中有两条线路,音质和音色都要优于单声道,但数字化后占据的存储空间的大小要比单声道多一倍。
2 _5 T' B# D3 n
+ ^% t& j" R" ]! c+ l) |. Q二、声卡驱动. r+ \9 k' e8 w
出于对安全性方面的考虑,Linux下的应用程序无法直接对声卡这类硬件设备进行操作,而是必须通过内核提供的驱动程序才能完成。在Linux上进行音频编程的本质就是要借助于驱动程序,来完成对声卡的各种操作。) V! E- e! R2 I3 R+ F3 M- Q0 l
+ i7 D$ p# s8 ^. \7 x' D
对硬件的控制涉及到寄存器中各个比特位的操作,通常这是与设备直接相关并且对时序的要求非常严格,如果这些工作都交由应用程序员来负责,那么对声卡的编程将变得异常复杂而困难起来,驱动程序的作用正是要屏蔽硬件的这些底层细节,从而简化应用程序的编写。目前Linux下常用的声卡驱动程序主要有两种:OSS和ALSA。
8 i: C( T. P& s- L4 S3 X2 b: f9 m3 ^/ t. F* q! F, M& K; f# w
最早出现在Linux上的音频编程接口是OSS(Open Sound System),它由一套完整的内核驱动程序模块组成,可以为绝大多数声卡提供统一的编程接口。OSS出现的历史相对较长,这些内核模块中的一部分(OSS/Free)是与Linux内核源码共同免费发布的,另外一些则以二进制的形式由4Front Technologies公司提供。由于得到了商业公司的鼎力支持,OSS已经成为在Linux下进行音频编程的事实标准,支持OSS的应用程序能够在绝大多数声卡上工作良好。
$ I* G! i/ i o, O8 T7 z2 p! g0 o8 ?
$ u$ \, b' p# q: O5 v虽然OSS已经非常成熟,但它毕竟是一个没有完全开放源代码的商业产品,ALSA(AdvancedLinux Sound Architecture)恰好弥补了这一空白,它是在Linux下进行音频编程时另一个可供选择的声卡驱动程序。ALSA除了像OSS那样提供了一组内核驱动程序模块之外,还专门为简化应用程序的编写提供了相应的函数库,与OSS提供的基于ioctl的原始编程接口相比,ALSA函数库使用起来要更加方便一些。ALSA的主要特点有:
2 K5 j. ?9 p# G+ l, f0 \+ o4 w2 D$ t! t6 N- n8 W
支持多种声卡设备; y$ g9 T5 Q; c1 ~- F
0 @% l1 F+ Q z3 x. c9 a
模块化的内核驱动程序: Z |3 }4 @* O/ c7 _
) b! O9 ?" H; C: w
支持SMP和多线程
+ b' T. [0 V3 Z; r% Q) M% [
; U3 b2 @0 S+ j4 d% N: M提供应用开发函数库6 ~+ L8 |- M. D3 w/ p" y4 e
3 l! ^/ X, R7 n5 H! }, r! [+ H' L兼容OSS应用程序
+ t8 b* W a! }) S. ?7 q
, P4 z' ~. Q0 L9 h, ~; ]ALSA和OSS最大的不同之处在于ALSA是由志愿者维护的自由项目,而OSS则是由公司提供的商业产品,因此在对硬件的适应程度上OSS要优于ALSA,它能够支持的声卡种类更多。ALSA虽然不及OSS运用得广泛,但却具有更加友好的编程接口,并且完全兼容于OSS,对应用程序员来讲无疑是一个更佳的选择。 |
|