自学内容网 自学内容网

Android 音频系统

一.Android音频框架

Application 层:

音乐播放器软件等。

Framework 层:

Android也提供了另两个相似功能的类,即AudioTrack和AudioRecorder。
MediaPlayerService内部的实现就是通过它们来完成的,
只不过MediaPlayer/MediaRecorder提供了更强大的控制功能,相比前者也更易于使用。

除此以外,Android系统还为我们控制音频系统提供了AudioManager、AudioService及AudioSystem类
这些都是framework为便利上层应用开发所设计的。

Libraries 层:

framework 只是向应用程序提供访问 Android 库的桥梁,具体功能放在 库 中完成。
比如上面的 Audio Track、Audio Recorder 、MediaPlayer 和 MediaRecorder 等库中都能找到相对应的类。

1、frameworks/av/media/libmedia【libmedia.so】
2、frameworks/av/services/audioflinger【libaudioflinger.so】
3、frameworks/av/media/libmediaplayerservice【libmediaplayerservice.so】

HAL 层:

从设计上来看,硬件抽象层是AudioFlinger直接访问的对象。
这说明了两个问题,一方面AudioFlinger并不直接调用底层的驱动程序;
另一方面,AudioFlinger上层模块只需要与它进行交互就可以实现音频相关的功能了。

因而我们可以认为AudioFlinger是Android音频系统中真正的“隔离板”,无论下面如何变化,上层的实现都可以保持兼容。

音频方面的硬件抽象层主要分为两部分,即AudioFlinger和AudioPolicyService。实际上后者并不是一个真实的设备,只是采用虚拟设备的方式来让厂商可以方便地定制出自己的策略。

抽象层的任务是将AudioFlinger/AudioPolicyService真正地与硬件设备关联起来,但又必须提供灵活的结构来应对变化——特别是对于Android这个更新相当频繁的系统。
比如以前Android系统中的Audio系统依赖于ALSA-lib,但后期就变为了tinyalsa,这样的转变不应该对上层造成破坏。

因而Audio HAL提供了统一的接口来定义它与AudioFlinger/AudioPolicyService之间的通信方式,这就是audio_hw_device、audio_stream_in及audio_stream_out等等存在的目的。这些Struct数据类型内部大多只是函数指针的定义,是一些“壳”。当AudioFlinger/AudioPolicyService初始化时,它们会去寻找系统中最匹配的实现(这些实现驻留在以audio.primary.,audio.a2dp.为名的各种库中)来填充这些“壳”。

根据产品的不同,音频设备存在很大差异,在Android的音频架构中,这些问题都是由HAL层的audio.primary等等库来解决的,而不需要大规模地修改上层实现。换句话说,厂商在定制时的重点就是如何提供这部分库的高效实现了。

Tinyalsa 层:

源码在external/tinyalsa目录下
Tinyalsa:tinyplay/tinycap/tinymix,这些用户程序直接调用 alsa 用户库接口来实现放音、录音、控制。

Kernel部分:

ASoC被分为Machine、Platform和Codec三大部分。

Machine用于描述设备组件信息和特定的控制如耳机/外放等。

Platform用于实现平台相关的DMA驱动和音频接口等。

Codec用于实现平台无关的功能,如寄存器读写接口,音频接口,各widgets的控制接口和DAPM的实现等。


原文地址:https://blog.csdn.net/weixin_49303682/article/details/137725144

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!