自学内容网 自学内容网

FFmpeg音视频采集

音视频采集

DirectShow(简称DShow)是一个Windows平台上的流媒体框架,提供了高质量的多媒体流采集和回放功能,它支持多种多样的媒体文件格式,包括ASF、MPEG、AVI、MP3和WAV文件,同时支持使用WDM驱动或早期的VFW驱动来进行多媒体流的采集。

  • DirectShow大大简化了媒体回放、格式转换和采集工作。但与此同时,也为用户自定义的解决方案提供了底层流控制框架,从而使用户可以自行创建支持新的文件格式或其他用户的DirectShow组件。
  • DirectShow专为C++而设计。Microsoft不提供用于DirectShow的托管API。
  • DirectShow是基于组件对象模型(COM)的,因此当你编写DirectShow应用程序时,你必须具备COM客户端程序编写的知识。对于大部分的应用程序,你不需要实现自己的COM对象,DirectShow提供了大部分你需要的DirectShow组件,但是假如你需要编写自己的DirectShow组件来进行扩充,那么你必须编写实现COM对象。
  • 使用DirectShow编写的典型应用程序包括:DVD播放器、视频编辑程序、AVI到ASF转换器、MP3播放器和数字视频采集应用。

音频采集

获取设备信息

void Widget::capture()
{
    avdevice_register_all(); // 注册所有的设备
    qDebug() << "注册设备完成";
    AVFormatContext *fmt_ctx = avformat_alloc_context();            // 分配一个格式上下文
    const AVInputFormat *input_fmt = av_find_input_format("dshow"); // 查找输入格式
    if (!input_fmt)
    {
        qDebug() << "找不到输入格式";
        return;
    }
    AVDeviceInfoList *dev_list = nullptr; // 设备信息列表

    int ret = avdevice_list_input_sources(input_fmt, nullptr, nullptr, &dev_list); // 获取设备信息列表
    if (ret < 0)
    {
        qDebug() << "获取设备信息列表失败";
        return;
    }

    for (int i = 0; i < dev_list->nb_devices; i++)
    {
        qDebug() << "设备名称: " << dev_list->devices[i]->device_name;
        qDebug() << "设备描述: " << dev_list->devices[i]->device_description;
        // qDebug() << "设备类型: " << av_get_media_type_string(*(dev_list->devices[i]->media_types));
        qDebug() << "------------------------";
    }
    avdevice_free_list_devices(&dev_list);
    qDebug() << "设备信息获取完成";
}

录制麦克风

void Widget::recordMicrophone()
{
    const char *output_file = "../../output/record.pcm"; // 输出文件路径
    avdevice_register_all();                             // 注册所有的设备
    AVDeviceInfoList *dev_list = nullptr;                // 设备信息列表

    const AVInputFormat *input_fmt = av_find_input_format("dshow"); // 查找输入格式
    if (!input_fmt)
    {
        qDebug() << "找不到输入格式";
        return;
    }
    int ret = avdevice_list_input_sources(input_fmt, nullptr, nullptr, &dev_list); // 获取设备信息列表
    if (ret < 0)
    {
        qDebug() << "获取设备信息列表失败";
        return;
    }
    std::string device_name = "audio=";
    for (int i = 0; i < dev_list->nb_devices; i++)
    {
        AVDeviceInfo *dev_info = dev_list->devices[i];
        if (dev_info)
        {
            if (*dev_info->media_types == AVMEDIA_TYPE_AUDIO) // 判断设备类型是否为音频
            {
                device_name += dev_info->device_name; // 获取设备名称
                break;
            }
        }
    }
    avdevice_free_list_devices(&dev_list); // 释放设备信息列表

    AVFormatContext *fmt_ctx = avformat_alloc_context(); // 分配一个格式上下文

    ret = avformat_open_input(&fmt_ctx, device_name.c_str(), input_fmt, nullptr); // 打开输入设备
    if (ret < 0)
    {
        qDebug() << "打开输入设备失败";
        return;
    }
    av_dump_format(fmt_ctx, 0, device_name.c_str(), 0); // 打印输入设备信息

    std::ofstream output(output_file, std::ios::binary | std::ofstream::out); // 打开输出文件,以二进制方式写入
    if (!output.is_open())
    {
        qDebug() << "打开输出文件失败";
        return;
    }

    auto currentTime = std::chrono::steady_clock::now(); // 获取当前时间

    AVPacket packet;                             // 分配一个数据包
    while (av_read_frame(fmt_ctx, &packet) >= 0) // 读取数据包
    {
        output.write((char *)packet.data, packet.size);                                // 写入数据包
        av_packet_unref(&packet);                                                      // 释放数据包
        if (std::chrono::steady_clock::now() - currentTime > std::chrono::seconds(10)) // 录音10秒后停止
            break;
    }
    output.close();                 // 关闭输出文件
    avformat_close_input(&fmt_ctx); // 关闭输入设备
    avformat_free_context(fmt_ctx); // 释放格式上下文
    qDebug() << "录音结束";
}

通过ffplay指令播放
在这里插入图片描述

录制声卡

跟麦克风录制一样,略

视频采集

查看支持的设备信息

 ffmpeg -list_devices true -f dshow -i dummy

在这里插入图片描述

ffmpeg -f dshow -list_options true -i video="USB Camera"

在这里插入图片描述

摄像机画面采集

void Widget::recordCamera()
{
    const char *output_file = "../../output/record.yuv"; // 输出文件名
    avdevice_register_all();                             // 注册所有设备
    AVDeviceInfoList *dev_list = nullptr;
    const AVInputFormat *input_fmt = av_find_input_format("dshow"); // 查找输入格式
    if (!input_fmt)
    {
        qDebug() << "找不到输入格式";
        return;
    }
    int ret = avdevice_list_input_sources(input_fmt, nullptr, nullptr, &dev_list); // 获取设备信息列表
    if (ret < 0)
    {
        qDebug() << "获取设备信息失败";
        return;
    }
    std::string device_name = "video="; // 设备名称
    for (int i = 0; i < dev_list->nb_devices; i++)
    {
        AVDeviceInfo *dev_info = dev_list->devices[i];
        if (dev_info)
        {
            if (*dev_info->media_types == AVMEDIA_TYPE_VIDEO) // 判断设备类型是否为视频
            {
                device_name += dev_info->device_name;
                break;
            }
        }
    }
    avdevice_free_list_devices(&dev_list); // 释放设备信息列表

    AVDictionary *options = nullptr;
    av_dict_set(&options, "pixel_format", "yuyv422", 0); // 设置像素格式
    av_dict_set(&options, "video_size", "1280x720", 0);  // 设置视频大小
    av_dict_set(&options, "framerate", "10", 0);         // 设置帧率

    AVFormatContext *fmt_ctx = avformat_alloc_context();                           // 分配一个格式上下文
    ret = avformat_open_input(&fmt_ctx, device_name.c_str(), input_fmt, &options); // 打开输入设备
    if (ret < 0)
    {
        qDebug() << "打开输入设备失败";
        return;
    }
    av_dump_format(fmt_ctx, 0, device_name.c_str(), 0); // 打印输入设备信息

    std::ofstream output(output_file, std::ios::binary | std::ofstream::out); // 打开输出文件,以二进制方式写入
    if (!output.is_open())
    {
        qDebug() << "打开输出文件失败";
        return;
    }

    auto currentTime = std::chrono::steady_clock::now(); // 获取当前时间
    AVPacket packet;                                     // 分配一个数据包
    while (av_read_frame(fmt_ctx, &packet) >= 0)         // 读取数据包
    {
        output.write((char *)packet.data, packet.size);                                // 写入数据包
        av_packet_unref(&packet);                                                      // 释放数据包
        if (std::chrono::steady_clock::now() - currentTime > std::chrono::seconds(10)) // 录像10秒后停止
            break;
    }
    output.close();                 // 关闭输出文件
    avformat_close_input(&fmt_ctx); // 关闭输入设备
    avformat_free_context(fmt_ctx); // 释放格式上下文
    qDebug() << "录像结束";
}


原文地址:https://blog.csdn.net/yerennuo/article/details/145285154

免责声明:本站文章内容转载自网络资源,如侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!