背景说明
FFmpeg是一个开源,免费,跨平台的视频和音频流方案,它提供了一套完整的录制、转换以及流化音视频的解决方案。而ffplay是有ffmpeg官方提供的一个基于ffmpeg的简单播放器。学习ffplay对于播放器流程、ffmpeg的调用等等是一个非常好的例子。本文就是对ffplay的一个基本的流程剖析,很多细节内容还需要继续钻研。
注:本文师基于ffmpeg-2.0版本进行分析,具体代码行还请对号入座,谢谢!
主框架流程
下图是一个使用“gcc+eygpt+graphviz+手工调整”生成的一个ffplay函数基本调用关系图,其中只保留了视频部分,去除了音频处理、字幕处理以及一些细节处理部分。
注:图中的数字表示了播放中的一次基本调用流程,X?序号表示退出流程。
从上图中我们可以了解到以下几种信息:
下面将对三个线程分别加以详细描述。
read_thread线程
从read_thread开始说起而不是从main线程,主要原因是考虑按照视频数据转换的方式比较好理解。
read_thread的创建是在main-->stream_open函数中:
is->read_tid = SDL_CreateThread(read_thread, is); |
read_thread线程主要分为三部分:
初始化部分
主要包括SDL_mutex信号量创建、创建avformat上下文、打开输入文件、解析码流信息、查找音视频数据流并打开对应的数据流。
创建wait_mutex互斥量
SDL_mutex *wait_mutex = SDL_CreateMutex();
该互斥量主要用于在对(VideoState *)is->continue_read_thread操作时加保护,如2887行和2925行:
//代码段一
/* if the queue are full, no need to read more */
if (infinite_buffer<1 &&
……) {undefined
/* wait 10 ms */
SDL_LockMutex(wait_mutex);
SDL_CondWaitTimeout(is->continue_read_thread, wait_mutex, 10); <-- line 2887
SDL_UnlockMutex(wait_mutex);
continue;
}
//代码段二
ret = av_read_frame(ic, pkt);
if (ret < 0) {undefined
if (ret == AVERROR_EOF || url_feof(ic->pb))
eof = 1;
if (ic->pb && ic->pb->error)
break;
SDL_LockMutex(wait_mutex);
SDL_CondWaitTimeout(is->continue_read_thread, wait_mutex, 10); <-- line 2925
SDL_UnlockMutex(wait_mutex);
continue;
}
而continue_read_thread从其名字上来看,是一个控制read_thread线程是否继续阻塞的信号量,上面两次阻塞的地方分别是:packet队列已满,需要等待一会(即超时10ms)或者收到信号重新循环;读数据失败,但是并不是IO错误(ic->pb->error),如读取网络实时数据时取不到数据,此时也需要等待或者收到信号重新循环。
注:seek操作时(L1216)和音频队列为空(L2327)时,会发送continue_read_thread信号。
AVFormatContext创建
(AVFormatContext *)ic = avformat_alloc_context();
此处创建的avformat上下文,类似于一个句柄,后续所有avformat相关的函数调用第一个参数都是该上下文指针,如avformat_open_input、avformat_find_stream_info以及一些和av相关的函数接口第一个参数也是该指针,如av_find_best_stream、av_read_frame等等。
打开输入文件
err = avformat_open_input(&ic, is->filename, is->iformat, &format_opts);
创建好avformat上下文后,就打开is->filename指定的文件(或流),其中第三个和第四个参数可以传NULL,由ffmpeg自动侦测待输入流的文件格式,也可以通过is->iformat手动指定,format_opts参数表示设置的特殊属性。
通过调用avformat_open_input函数,我们可以得到输入流的一个基本信息。我们可以通过调用av_dump_format(ic, 0, is->filename, 0);来输出解析后的码流信息,可以得到如下数据:
Input #0, mpegts, from '/home/nfer/bak/cw880-latency.ts':0B f=0/0
Duration: N/A, bitrate: N/A
Program 1
Stream #0:0[0x68]:Video:h264 ([27][0][0][0] / 0x001B), 90k tbn
Stream #0:1[0x67]:Audio:aac([15][0][0][0] / 0x000F), 0 channels
即,可以解析出
² 封装格式是mpegts,包含两路数据流
² 流1的PID是0x68,类型是视频,编码格式是H264
² 流2的PID是0x67,类型是音频,编码格式是AAC
但是只有这些信息可定无法解码,比如视频的宽高比、图像编码格式(YUV or RGB …)、音频采样率、音频声道数量等等,以及Duration、bitrate等信息。这些信息都需要通过其他函数来解析。
解析码流信息
err = avformat_find_stream_info(ic, opts);
因为avformat_open_input函数只能解析出一些基本的码流信息,不足以满足解码的要求,因此我们调用avformat_find_stream_info函数来尽量的解析出所有的和输入流相关的信息。
解析码流的内部实现我们不在此处讨论,先看一看调用后该函数后解析出来的信息(同样采用av_dump_format来输出):
Input #0, mpegts, from '/home/nfer/bak/cw880-latency.ts':0B f=0/0
Duration: 00:02:53.73, start: 2051.276989, bitrate: 1983 kb/s
Program 1
Stream #0:0[0x68]: Video: h264 (Baseline) ([27][0][0][0] / 0x001B), yuv420p, 1280x720, 30 tbr, 90k tbn, 180k tbc
Stream #0:1[0x67]: Audio: aac ([15][0][0][0] / 0x000F), 48000 Hz, stereo, fltp,72 kb/s
对比上一步获取的信息,我们可以看到新解析出来的信息:
² 码流信息;节目时长00:02:53.73,开始播放时间2051.276989,码率1983 kb/s
² 视频信息:色彩空间YUV420p,分辨率1280x720,帧率30,文件层的时间精度90k,视频层的时间精度180K
² 音频信息:采样率48000,立体声stereo,音频采样格式fltp(float, planar),音频比特率72 kb/s
需要注意的是,该函数是一个阻塞操作,即默认情况下会在该函数中阻塞5s。具体的实现是在avformat_open_input函数中有一个for(;;) 循环,其中的一个break条件如下:
if (t >= ic->max_analyze_duration) {undefined
av_log(ic, AV_LOG_VERBOSE, "max_analyze_duration %d reached at %"PRId64" microsecondsn", ic->max_analyze_duration, t);
break;
}
而ic->max_analyze_duration的默认值定义在options_table.h文件中,即默认的参数表:
{"analyzeduration", "specify how many microseconds are analyzed to probe the input", OFFSET(max_analyze_duration), AV_OPT_TYPE_INT, {.i64 = 5*AV_TIME_BASE }, 0, INT_MAX, D},
#define AV_TIME_BASE 1000000 <--file: avutil.h, line: 229
如果觉得这个默认的5s阻塞时间太长,或者甚至觉得完全没有必要,即我们可以手动的设置各种解码的参数,那么可以通过下面的方法将ic->max_analyze_duration的值修改为1s:
ic = avformat_alloc_context();
ic->interrupt_callback.callback = decode_interrupt_cb;
ic->interrupt_callback.opaque = is;
//add by Nfer
ic->max_analyze_duration =1*1000*1000;
av_log(NULL, AV_LOG_ERROR, "ic->max_analyze_duration %d.n", ic->max_analyze_duration);
err = avformat_open_input(&ic, is->filename, is->iformat, &ffp->format_opts);
注:红色部分为添加的代码
相关视频推荐
linux中FFmpeg常用结构体及ffplay框架分析_哔哩哔哩_bilibili
音视频开发第一个项目-FFmpeg播放器开发|FFmpeg播放器框架讲解,代码实现视频播放,如何同时解码多路视频,FFmpeg内存对齐花屏问题剖析_哔哩哔哩_bilibili
学习地址:【免费】
FFmpeg/WebRTC/RTMP/NDK/Android音视频流媒体高级开发-学习视频教程-腾讯课堂
需要更多ffmpeg/webrtc..音视频流媒体开发学习资料加群812855908领取
查找音视频数据流
if (!video_disable)
st_index[AVMEDIA_TYPE_VIDEO] =
av_find_best_stream(ic, AVMEDIA_TYPE_VIDEO,
wanted_stream[AVMEDIA_TYPE_VIDEO], -1, NULL, 0);
av_find_best_stream函数主要就做了一件事:找符合条件的数据流。其简单实现可以参考ffmpeg-tutorial项目中tutorial01.c的代码:
// Find the first video stream
videoStream=-1;
for(i=0; i<pFormatCtx->nb_streams; i++)
if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO) {undefined
videoStream=i;
break;
}
if(videoStream==-1)
return -1; // Didn't find a video stream
注:ffmpeg-tutorial项目是对Stephen Dranger写的7个ffmpeg tutorial做的一个update。
打开对应的数据流
if (st_index[AVMEDIA_TYPE_VIDEO] >= 0) {undefined
ret = stream_component_open(is, st_index[AVMEDIA_TYPE_VIDEO]);
}
通过最开始的主框架流程图,我们可以大概的看到stream_component_open函数中最主要的动作就是调用packet_queue_start和创建video_thread线程。当然在这之前还有一些处理,其中包括:
查找解码器
avctx = ic->streams[stream_index]->codec;
codec = avcodec_find_decoder(avctx->codec_id);
如果启动ffplay时通过vcodec参数指定了解码器名称,那么在通过codec_id查找到解码器后,再使用forced_codec_name查找解码
avcodec_find_decoder_by_name。但是注意,如果通过解码器名称查找后会覆盖之前通过codec_id查找到解码器,即如果在参数中指定了错误的解码器会导致无法正常播放的。
设置解码参数
opts = filter_codec_opts(codec_opts, avctx->codec_id, ic, ic->streams[stream_index], codec);
if (!av_dict_get(opts, "threads", NULL, 0))
av_dict_set(&opts, "threads", "auto", 0);
if (avctx->lowres)
av_dict_set(&opts, "lowres", av_asprintf("%d", avctx->lowres), AV_DICT_DONT_STRDUP_VAL);
if (avctx->codec_type == AVMEDIA_TYPE_VIDEO || avctx->codec_type == AVMEDIA_TYPE_AUDIO)
av_dict_set(&opts, "refcounted_frames", "1", 0);
打开解码器
if (avcodec_open2(avctx, codec, &opts) < 0)
return -1;
启动packet队列
packet_queue_start(&is->videoq);
启动packet队列时,会向队列中先放置一个flush_pkt,其中详细缘由后面再讲。
创建video_thread线程
is->video_stream = stream_index;
is->video_st = ic->streams[stream_index];
is->video_tid = SDL_CreateThread(video_thread, is);
is->queue_attachments_req = 1;
注:上述分析过程中没有考虑音频和字幕处理的部分,后续有机会再详解。
循环读取数据部分
该部分是一个for (;;)循环,循环中主要包括pause和resume操作处理、seek操作处理、packet队列写入失败处理、读数据结束处理、然后是读数据并写入到对应的音视频队列中。
for循环跳出条件
有两处是break处理的:
//代码段一
if (is->abort_request)
break; <-- Line 2814
//代码段二
ret = av_read_frame(ic, pkt);
if (ret < 0) {undefined
if (ic->pb && ic->pb->error)
break; <-- Line 2923
}
其中条件一是调用do_exit --> stream_close中将is->abort_request置为1的,代码中有多个地方是判断该条件进行exit处理的;条件二很清晰,就是当遇到读数据失败并且是IO错误时,会退出。
pause和resume操作处理
if (is->paused != is->last_paused) {undefined
is->last_paused = is->paused;
if (is->paused)
is->read_pause_return = av_read_pause(ic);
else
av_read_play(ic);
}
在ffplay中暂停和恢复的按键操作时p键(SDLK_p)和space键(SDLK_SPACE),会调用toggle_pause--> stream_toggle_pause来修改is->paused标记变量,然后在read_thread线程中通过对is->paused标记变量的判断进行pause和resum(play)的处理。
seek操作处理
if (is->seek_req) {undefined
ret = avformat_seek_file(is->ic, -1, seek_min, seek_target, seek_max, is->seek_flags);
if (is->video_stream >= 0) {undefined
packet_queue_flush(&is->videoq);
packet_queue_put(&is->videoq, &flush_pkt);
}
is->seek_req = 0;
}
注:上述代码有所删减,只保留了和视频相关的部分
同上面pause和resume的处理,is->seek_req是在按键操作(SDLK_PAGEUP、SDLK_PAGEDOWN、SDLK_LEFT、SDLK_RIGHT、SDLK_UP和SDLK_DOWN)时,调用stream_seek函数来修改is->seek_req标记变量,然后在read_thread线程中根据is->seek_req标记变量来进行处理。
具体处理除了调用ffmpeg的avformat_seek_file接口外,还向packet队列中放置了一个flush_pkt,这个在video_thread中的处理中会解决seek操作的花屏效果。
packet队列写入失败处理
/* if the queue are full, no need to read more */
if (infinite_buffer<1 &&
(is->audioq.size + is->videoq.size + is->subtitleq.size > MAX_QUEUE_SIZE
|| ( (is->audioq .nb_packets > MIN_FRAMES || is->audio_stream < 0 || is->audioq.abort_request)
&& (is->videoq .nb_packets > MIN_FRAMES || is->video_stream < 0 || is->videoq.abort_request
|| (is->video_st->disposition & AV_DISPOSITION_ATTACHED_PIC))
&& (is->subtitleq.nb_packets > MIN_FRAMES || is->subtitle_stream < 0 || is->subtitleq.abort_request)))) {undefined
/* wait 10 ms */
SDL_LockMutex(wait_mutex);
SDL_CondWaitTimeout(is->continue_read_thread, wait_mutex, 10);
SDL_UnlockMutex(wait_mutex);
continue;
}
此处的各种判断条件不详细解释,重点是在播放器处理中,写数据失败时需要wait and continue的处理。
读数据结束处理
if (eof) {undefined
if (is->video_stream >= 0) {undefined
av_init_packet(pkt);
pkt->data = NULL;
pkt->size = 0;
pkt->stream_index = is->video_stream;
packet_queue_put(&is->videoq, pkt);
}
SDL_Delay(10);
if (is->audioq.size + is->videoq.size + is->subtitleq.size == 0) {undefined
if (loop != 1 && (!loop || --loop)) {undefined
stream_seek(is, start_time != AV_NOPTS_VALUE ? start_time : 0, 0, 0);
} else if (autoexit) {undefined
ret = AVERROR_EOF;
goto fail;
}
}
eof=0;
continue;
}
当遇到eof,即end of file时,做一下几个步骤:
注意,在读数据eof时,读数据部分还有些滞后,即if (is->audioq.size + is->videoq.size + is->subtitleq.size== 0)判断不一定为true,引起在判断前先delay了10ms(SDL_Delay(10););但是仍然不一定为true,因此需要continue。当然下一步av_read_frame失败也会返回AVERROR_EOF,eof会重新赋值为1。即,eof退出会wait到真正的播放完毕。
读数据并写入到对应的音视频队列
ret = av_read_frame(ic, pkt);
if (pkt->stream_index == is->video_stream && pkt_in_play_range
&& !(is->video_st->disposition & AV_DISPOSITION_ATTACHED_PIC)) {undefined
packet_queue_put(&is->videoq, pkt);
}
注:上述代码有所删减,只保留了和视频相关的部分
此处的处理实际上比较简单,就是av_read_frame和packet_queue_put,不详解。
反初始化部分
主要包括退出前的等待、关闭音视频流、关闭avformat、给主线程发送FF_QUIT_EVENT消息以及销毁SDL_mutex信号量。
退出前的等待
/* wait until the end */
while (!is->abort_request) {undefined
SDL_Delay(100);
}
因为之前for循环跳出条件中说明了只有两种情况下才会break出来,其一就是is->abort_request为true,其二直接就goto到fail了,因此两种情况下该while循环都不会判断为true,直接略过。具体代码原因不明。
关闭音视频流
if (is->video_stream >= 0)
stream_component_close(is, is->video_stream);
注:上述代码有所删减,只保留了和视频相关的部分
其中stream_component_close关闭视频流做了以下处理:
给主线程发送FF_QUIT_EVENT
if (ret != 0) {undefined
SDL_Event event;
event.type = FF_QUIT_EVENT;
event.user.data1 = is;
SDL_PushEvent(&event);
}
在主线程会接收到FF_QUIT_EVENT消息,从而会调用do_exit函数来做退出处理。
销毁SDL_mutex信号量
SDL_DestroyMutex(wait_mutex);
read_thread基本就分析到这里,下面描述以下video_thread。
video_thread线程
从主框架流程中可以看出,video_thread线程是在read_thread--> stream_component_open中创建的,负责从packet队列中读取packet并解码为picture,然后存储到picture队列中供主线程读取并刷新显示。
video_thread的创建是在read_thread --> stream_component_open函数中:
is->video_tid = SDL_CreateThread(video_thread, is);
read_thread线程同样分为三部分:
初始化部分
该线程的初始化就是创建了AVFrame和AVFilterGraph,其中AVFilterGraph还是和编译宏包含,如果没有打开CONFIG_AVFILTER可以直接省略。
is->video_tid = SDL_CreateThread(video_thread, is);
… …
AVFrame *frame = av_frame_alloc();
#if CONFIG_AVFILTER
AVFilterGraph *graph = avfilter_graph_alloc();
#endif
循环解码部分
主要包括pause和resume操作处理、读取packet处理、AVFILTER处理、然后是将picture写入视频队列中以及每次解码后的清理动作。
pause和resume操作处理
video_thread中的关于pause和resume的处理比较简单,就是如果是pause状态就delay(线程sleep):
while (is->paused && !is->videoq.abort_request)
SDL_Delay(10);
读取packet处理
avcodec_get_frame_defaults(frame);
av_free_packet(&pkt);
ret = get_video_frame(is, frame, &pkt, &serial);
//关于frame的一些处理
av_frame_unref(frame);
从上述代码中可以看出,一个frame(和packet)的完整生命流程。
在ffmpeg-tutorial项目中tutorial01.c中的例子是使用avcodec_alloc_frame()来申请并设置default value的操作,但是在这里就分成了两步:av_frame_alloc()然后
avcodec_get_frame_defaults(frame)。
av_free_packet实际上清空上一次get_video_frame中获取的packet数据,函数本身是有异常处理的,所以连续调用两次av_free_packet是没有问题的。
get_video_frame函数中主要部分是packet_queue_get然后avcodec_decode_video2,即从packet队列中读取数据然后进行解码,具体内容有机会另开文章进行讲解。
AVFILTER处理
AVFILTER处理是一个比较模块化很高的处理部分,大致流程包括以下几步:
简单的理解就是:
将picture写入视频队列
如果需要avfilter处理,那么处理完后或者不需要avfilter处理,解码完成后的frame会调用queue_picture写入到picture队列中。具体细节不详解。
解码后的清理动作
使用完packet后,必须从frame中释放出来:av_frame_unref。如api说明:Unreference allthe buffers referenced by frame and reset the frame fields.
for循环跳出条件
有以下几种情况下会break出for循环:
即正常情况下,有两种退出模式:
反初始化部分
反初始化部分比较简单,就是先通知avcodec进行flush数据,然后依次释放AVFilterGraph、AVPacket和AVFrame。
video_thread讲解的比较粗糙,主要原因还是由于个人了解的知识有所欠缺,后续有机会会补上。
主线程
主流程用于视频图像显示和刷新,实际上还主线程是一个事件驱动的,就是一个wait_event然后switch处理,然后继续for循环。
refresh_loop_wait_event处理
该函数会从event队列中读取出event,SDL_PumpEvents、SDL_PeepEvents。同时会调用video_refresh来进行视频刷新和显示。此处会有大量和SDL API相关的操作,由于个人能力有限暂不分析。
event的switch处理
该event的处理分为以下几类:
由于时间有限,文章有些虎头蛇尾,还请各位谅解。