Android音频开发(2):如何采集一帧音频

bnkx0378 9年前
   <p>本文重点关注如何在Android平台上采集一帧音频数据。阅读本文之前,建议先读一下我的上一篇文章 <a href="http://www.open-open.com/lib/view/open1462747926629.html">《Android音频开发(1):基础知识》</a> ,因为音频开发过程中,经常要涉及到这些基础知识,掌握了这些重要的概念后,开发过程中的很多参数和流程就会更加容易理解。</p>    <p>Android SDK 提供了两套音频采集的API,分别是:MediaRecorder 和 AudioRecord,前者是一个更加上层一点的API,它可以直接把手机麦克风录入的音频数据进行编码压缩(如AMR、MP3等)并存成文件,而后者则更接近底层,能够更加自由灵活地控制,可以得到原始的一帧帧PCM音频数据。</p>    <p>如果想简单地做一个录音机,录制成音频文件,则推荐使用 MediaRecorder,而如果需要对音频做进一步的算法处理、或者采用第三方的编码库进行压缩、以及网络传输等应用,则建议使用 AudioRecord,其实 MediaRecorder 底层也是调用了 AudioRecord 与 Android Framework 层的 AudioFlinger 进行交互的。</p>    <p>音频的开发,更广泛地应用不仅仅局限于本地录音,因此,我们需要重点掌握如何利用更加底层的 AudioRecord API 来采集音频数据(注意,使用它采集到的音频数据是原始的PCM格式,想压缩为mp3,aac等格式的话,还需要专门调用编码器进行编码)。</p>    <h2>1. AudioRecord 的工作流程</h2>    <p>首先,我们了解一下 AudioRecord 的工作流程:</p>    <p>(1) 配置参数,初始化内部的音频缓冲区</p>    <p>(2) 开始采集</p>    <p>(3) 需要一个线程,不断地从 AudioRecord 的缓冲区将音频数据“读”出来,注意,这个过程一定要及时,否则就会出现“overrun”的错误,该错误在音频开发中比较常见,意味着应用层没有及时地“取走”音频数据,导致内部的音频缓冲区溢出。</p>    <p>(4) 停止采集,释放资源</p>    <h2>2. AudioRecord 的参数配置</h2>    <p><img src="https://simg.open-open.com/show/76afdbbe85c9b1798128c259ad61e936.png"></p>    <p>上面是 AudioRecord 的构造函数,我们可以发现,它主要是靠构造函数来配置采集参数的,下面我们来一一解释这些参数的含义(建议对照着我的上一篇文章来理解):</p>    <p>(1) audioSource</p>    <p>该参数指的是音频采集的输入源,可选的值以常量的形式定义在 MediaRecorder.AudioSource 类中,常用的值包括:DEFAULT(默认),VOICE_RECOGNITION(用于语音识别,等同于DEFAULT),MIC(由手机麦克风输入),VOICE_COMMUNICATION(用于VoIP应用)等等。</p>    <p>(2) sampleRateInHz</p>    <p>采样率,注意,目前44100Hz是唯一可以保证兼容所有Android手机的采样率。</p>    <p>(3) channelConfig</p>    <p>通道数的配置,可选的值以常量的形式定义在 AudioFormat 类中,常用的是 CHANNEL_IN_MONO(单通道),CHANNEL_IN_STEREO(双通道)</p>    <p>(4) audioFormat</p>    <p>这个参数是用来配置“数据位宽”的,可选的值也是以常量的形式定义在 AudioFormat 类中,常用的是 ENCODING_PCM_16BIT(16bit),ENCODING_PCM_8BIT(8bit),注意,前者是可以保证兼容所有Android手机的。</p>    <p>(5) bufferSizeInBytes</p>    <p>这个是最难理解又最重要的一个参数,它配置的是 AudioRecord 内部的音频缓冲区的大小,该缓冲区的值不能低于一帧“音频帧”(Frame)的大小,而前一篇文章介绍过,一帧音频帧的大小计算如下:</p>    <p>int size = 采样率 x 位宽 x 采样时间 x 通道数</p>    <p>采样时间一般取 2.5ms~120ms 之间,由厂商或者具体的应用决定,我们其实可以推断,每一帧的采样时间取得越短,产生的延时就应该会越小,当然,碎片化的数据也就会越多。</p>    <p>在Android开发中,AudioRecord 类提供了一个帮助你确定这个 bufferSizeInBytes 的函数,原型如下:</p>    <p>int getMinBufferSize(int sampleRateInHz, int channelConfig, int audioFormat);</p>    <p>不同的厂商的底层实现是不一样的,但无外乎就是根据上面的计算公式得到一帧的大小,音频缓冲区的大小则必须是一帧大小的2~N倍,有兴趣的朋友可以继续深入源码探究探究。</p>    <p>实际开发中,强烈建议由该函数计算出需要传入的 bufferSizeInBytes,而不是自己手动计算。</p>    <h2>3. 音频的采集线程</h2>    <p>当创建好了 AudioRecord 对象之后,就可以开始进行音频数据的采集了,通过下面两个函数控制采集的开始/停止:</p>    <p>AudioRecord.startRecording();</p>    <p>AudioRecord.stop();</p>    <p>一旦开始采集,必须通过线程循环尽快取走音频,否则系统会出现 overrun,调用的读取数据的接口是:</p>    <p>AudioRecord.read(byte[] audioData, int offsetInBytes, int sizeInBytes);</p>    <h2>4. 示例代码</h2>    <p>我将 AudioRecord 类的接口简单封装了一下,提供了一个 AudioCapturer 类,可以到我的Github下载: <a href="/misc/goto?guid=4959672711417731936" rel="nofollow,noindex">https://github.com/Jhuster/Android/blob/master/Audio/AudioCapturer.java</a></p>    <p>这里也贴出来一份:</p>    <pre>  <code class="language-java">/*   *  COPYRIGHT NOTICE     *  Copyright (C) 2016, Jhuster <lujun.hust@gmail.com>   *  https://github.com/Jhuster/Android   *      *  @license under the Apache License, Version 2.0    *   *  @file    AudioCapturer.java   *     *  @version 1.0        *  @author  Jhuster   *  @date    2016/03/10       */  import android.media.AudioFormat;  import android.media.AudioRecord;  import android.media.MediaRecorder;  import android.util.Log;    public class AudioCapturer {        private static final String TAG = "AudioCapturer";         private static final int DEFAULT_SOURCE = MediaRecorder.AudioSource.MIC;      private static final int DEFAULT_SAMPLE_RATE = 44100;      private static final int DEFAULT_CHANNEL_CONFIG = AudioFormat.CHANNEL_IN_MONO;      private static final int DEFAULT_AUDIO_FORMAT = AudioFormat.ENCODING_PCM_16BIT;        private AudioRecord mAudioRecord;      private int mMinBufferSize = 0;         private Thread mCaptureThread;        private boolean mIsCaptureStarted = false;      private volatile boolean mIsLoopExit = false;        private OnAudioFrameCapturedListener mAudioFrameCapturedListener;        public interface OnAudioFrameCapturedListener {          public void onAudioFrameCaptured(byte[] audioData);      }         public boolean isCaptureStarted() {            return mIsCaptureStarted;      }        public void setOnAudioFrameCapturedListener(OnAudioFrameCapturedListener listener) {          mAudioFrameCapturedListener = listener;      }        public boolean startCapture() {          return startCapture(DEFAULT_SOURCE, DEFAULT_SAMPLE_RATE, DEFAULT_CHANNEL_CONFIG,              DEFAULT_AUDIO_FORMAT);      }        public boolean startCapture(int audioSource, int sampleRateInHz, int channelConfig, int audioFormat) {            if (mIsCaptureStarted) {              Log.e(TAG, "Capture already started !");              return false;          }                mMinBufferSize = AudioRecord.getMinBufferSize(sampleRateInHz,channelConfig,audioFormat);          if (mMinBufferSize == AudioRecord.ERROR_BAD_VALUE) {              Log.e(TAG, "Invalid parameter !");              return false;          }          Log.d(TAG , "getMinBufferSize = "+mMinBufferSize+" bytes !");              mAudioRecord = new AudioRecord(audioSource,sampleRateInHz,channelConfig,audioFormat,mMinBufferSize);              if (mAudioRecord.getState() == AudioRecord.STATE_UNINITIALIZED) {           Log.e(TAG, "AudioRecord initialize fail !");       return false;          }              mAudioRecord.startRecording();            mIsLoopExit = false;          mCaptureThread = new Thread(new AudioCaptureRunnable());          mCaptureThread.start();            mIsCaptureStarted = true;            Log.d(TAG, "Start audio capture success !");            return true;      }        public void stopCapture() {            if (!mIsCaptureStarted) {              return;          }            mIsLoopExit = false;            try {              mCaptureThread.interrupt();              mCaptureThread.join(1000);          }           catch (InterruptedException e) {                e.printStackTrace();          }            if (mAudioRecord.getRecordingState() == AudioRecord.RECORDSTATE_RECORDING) {              mAudioRecord.stop();                }            mAudioRecord.release();               mIsCaptureStarted = false;          mAudioFrameCapturedListener = null;            Log.d(TAG, "Stop audio capture success !");      }        private class AudioCaptureRunnable implements Runnable {               @Override          public void run() {                while (!mIsLoopExit) {                    byte[] buffer = new byte[mMinBufferSize];                    int ret = mAudioRecord.read(buffer, 0, mMinBufferSize);                      if (ret == AudioRecord.ERROR_INVALID_OPERATION) {                      Log.e(TAG , "Error ERROR_INVALID_OPERATION");                  }                   else if (ret == AudioRecord.ERROR_BAD_VALUE) {                      Log.e(TAG , "Error ERROR_BAD_VALUE");                  }                   else if (ret == AudioRecord.ERROR_INVALID_OPERATION) {                      Log.e(TAG , "Error ERROR_INVALID_OPERATION");                  }                  else {                       if (mAudioFrameCapturedListener != null) {                          mAudioFrameCapturedListener.onAudioFrameCaptured(buffer);                      }                         Log.d(TAG , "OK, Captured "+ret+" bytes !");                  }                            }            }          }  }</code></pre>    <p>使用前要注意,添加如下权限:</p>    <p><uses-permission android:name="android.permission.RECORD_AUDIO" /></p>    <h2>5. 小结</h2>    <p>音频开发的知识点其实挺多的,一篇文章也无法详细地展开叙述,因此,不够全面和详尽的地方,请大家搜索专业的资料进行深入了解。文章中有不清楚的地方欢迎留言或者来信 lujun.hust@gmail.com 交流,或者关注我的新浪微博@卢_俊 或者 微信公众号 @Jhuster 获取最新的文章和资讯。</p>    <p><img src="https://simg.open-open.com/show/c5f73d6522a6d04df3e90e616662dd9f.jpg"></p>    <p>来自: <a href="/misc/goto?guid=4959672711513326206" rel="nofollow">http://ticktick.blog.51cto.com/823160/1749719</a></p>