borage 发表于 2022-6-22

无线音频延迟模型及经典蓝牙音频(HFP/A2DP)延迟分析(上)


无线音频延迟模型及经典蓝牙音频(HFP/A2DP)延迟分析(上)


无线音频延迟模型

首先需要明确的是无线音频延迟并不是指通过无线电波传播音频信号所花的时间,事实上无线电波传播时间在无线音频延迟中可以忽略不计。无线电波以光速传输,传输10米距离所花的时间=10/(3*10^8)=0.033μs=33ns, 完全可以忽略不计。

无线音频延迟主要由数字音频编码器的特性以及为了确保在干扰环境条件下传输的服务质量(QoS)而引入的传输冗余决定的。

无线音频传输及延迟模型如下图所示,整体的无线音频延迟是指模拟音频信号输入无线发射器至模拟音频信号输出无线接收器之间的时间差。

上图显示了无线音频延迟由编码延迟、传输延迟和解码延迟三部份构成。分别说明如下:



编码延迟

首先,模拟音频信号会被采样。基于心理声学模型的感知编码需要编码器分析连续的多个采样样本以识别可压缩的机会,基本原理为基于心理声学中确定的人耳听觉特性(例如幅度掩蔽效应及频率掩蔽效应)对于PCM样本中实际存在但人耳无法感知的音频信号不分配信息比特以得到压缩单位时间内比特数的目的。感知编码的以上特性意味着编码器需要收集足够的连续声音样本以应用心理声学模型。每一个连续声音样本被称为帧,声音样本持续时间被称为帧时长。不同的编码技术采用不同的帧时长。帧时长需要适合编码器本身的技术特性以及数字音频应用场景的要求。如果帧时长过短则有限的样本数量会降低编码器的压缩效率,过长则延迟增加从而影响用户体验。另外帧时长太长也会增加编码器的复杂程度从而增加功耗。实际编码器中的帧时长是在编码器效率、延迟和功耗之间权衡的结果。为了同时满足语音及音乐应用的需要,行业内找到了一个最佳的帧时长 – 10毫秒(1毫秒=1ms=0.001秒)。编码用时通常为数毫秒,取决于编码算法及编码处理器的计算效率。帧时长和编码用时共同构成编码延迟。

传输延迟

经过编码后的数字音频流通过一定的无线通讯技术进行传输,按特定的封包格式形成数据包,再通过一定的调制方式将数据包搬移到射频载波上进行无线传输。如前所述无线传输本身用时极短,但由于现实无线传输环境中存在干扰,为了提高传输的服务质量(QoS)通常需要对相同的数据封包在一定时间内重复传输,从而造成传输延迟。传输延迟通常为数毫秒到几十毫秒之间,取决于对服务质量(QoS)及数据可靠性的要求。

解码延迟

最后是由解码器解码数字音频流所花的时间产生的延迟,解码延迟通常较编码延迟短,且没有编码器中的帧时长产生的延迟,因为解码器会将输出的帧自动进行扩展以形成连续的比特流以用于音频数字/模拟信号转换。解码延迟通常为数毫秒。
页: [1]
查看完整版本: 无线音频延迟模型及经典蓝牙音频(HFP/A2DP)延迟分析(上)