VGA采集卡

您现在的位置: 九视 >> vga采集卡 >> 正文

视频采集中DirectShow音频和视频同步方法

作者:九视视频网 来源:www.xiangb.com 发表时间: 2011-2-22

  DirectShow标准是目前视频软件大多采用的标准,如九视目前推出的流媒体采集卡,其都支持标准的DirectShow进行开发,这样在应用中,可以快速轻松实现视频采集卡和自身软件的结合,这样在工程应用中都是非常方便的。下面我们简单来介绍下DirectShow中音视频同步解决方案。

  DirectShow结构最核心的部分是Filter Graph Manager:向下控制Graph中的所有Filter,向上对应用程序提供编程接口。

  其中,Filter Graph Manager实现的很重要的一个功能就是:同步音视频的处理。

  简单地说,就是选一个公共的参考时钟,并且要求给每个Sample都打上时间戳,Video Renderer或Audio Renderer根据Sample的时间戳来控制播放。

  如果到达Renderer的Sample晚了,则加快Sample的播放;

  如果早了,则Renderer等待,一直到Sample时间戳的开始时间再开始播放。这个控制过程还引入一个叫Quality Control的反馈机制。

  下面,我们来看一下参考时钟(Reference Clock)。

  所有Filter都参照于同一个时钟,才能步调统一。

  DirectShow引入了两种时钟时间:Reference time和Stream time。

  前者是从参考时钟返回的绝对时间(IReferenceClock::GetTime),数值本身的意义取决于参考时钟的内部实现,利用价值不大;

  后者是两次从参考时钟读取的数值的差值,实际应用于Filter Graph内部的同步。Stream time在Filter Graph不同状态的取值为:

  1. Filter Graph运行时,取值为当前参考时钟时间减去Filter Graph启动时的时间(启动时间是通过调用Filter上的IMediaFilter::Run来设置的);

  2. Filter Graph暂停时,保持为暂停那一刻的Stream time;

  3. 执行完一次Seek操作后,复位至零;

  4. Filter Graph停止时,取值不确定。

  那么,参考时钟究竟是什么东西呢?

  其实,它只是一个实现了IReferenceClock接口的对象。也就是说,任何一个实现了 IReferenceClock接口的对象都可以成为参考时钟。在Filter Graph中,这个对象一般就是一个Filter。

  (在GraphEdit中,实现了参考时钟的Filter上会显示一个时钟的图标;如果同一个 Graph中有多个Fiter实现了参考时钟,当前被Filter Graph Manager使用的那个会高亮度显示。)

  而且大多数情况下,参考时钟是由Audio Renderer这个Filter提供的,因为声卡上本身带有了硬件定时器资源。

  接下来的问题是,如果Filter Graph中有多个对象实现了IReferenceClock接口,Filter Graph Manager是如何做出选择的呢?

  默认的算法如下:

  1. 如果应用程序设置了一个参考时钟,则直接使用这个参考时钟。

  (应用程序通过IMediaFilter:: SetSyncSource设置参考时钟,参数即为参考时钟;

  如果参数值为NULL,表示Filter Graph不使用参考时钟,以最快的速度处理Sample;

  可以调用IFilterGraph:: SetDefaultSyncSource来恢复Filter Graph Manager默认的参考时钟。

  值得注意的是,这时候的IMediaFilter接口应该从Filter Graph Manager上获得,而不是枚举Graph中所有的Filter并分别调用Filter上的这个接口方法。)

  2. 如果Graph中有支持IReferenceClock接口的Live Source,则选择这个LiveSource。

  3. 如果Graph中没有Live Source,则从Renderer依次往上选择一个实现IReferenceClock接口的Filter。

  如果连接着的Filter都不能提供参考时钟,则再从没有连接的Filter中选择。这一步算法中还有一个优先情况,就是如果Filter Graph中含有一个Audio Render的链路,则直接选择

  Audio Renderer这个Filter(原因上面已经提及)。

  4. 如果以上方法都找不到一个适合的Filter,则选取系统参考时钟。

  (System Reference Clock,通过CoCreateInstance创建,CLSID为 CLSID_SystemClock。)

  我们再来看一下Sample的时间戳(Time Stamp)。需要注意的是,每个Sample上可以设置两种时间戳:IMediaSample::SetTime和IMediaSample::SetMediaTime。

  我们通常讲到时间戳,一般是指前者,它又叫Presentation time,Renderer正是根据这个时间戳来控制播放;

  而后者对于Filter来说不是必须的,Media time有没有用取决于你的实现,比如你给每个发出去的Sample依次打上递增的序号,在后面的Filter接收时就可以判断传输的过程中是否有

  Sample丢失。

  我们再看一下IMediaSample::SetTime的参数,两个参数类型都是REFERENCE_TIME,千万不要误解这里的时间是Reference time,其实它们用的是Stream time。

  还有一点,就是并不是所有的Sample都要求打上时间戳。对于一些压缩数据,时间戳是很难打的,而且意义也不是很大(不过压缩数据经过 Decoder出来之后到达Renderer之前,一般都会打好

  时间戳了)。时间戳包括两个时间,开始时间和结束时间。当Renderer接收到一个 Sample时,一般会将Sample的开始时间和当前的Stream time作比较,如果Sample来晚了或者没有时间戳,

  则马上播放这个Sample;如果Sample来得早了,则通过调用参考时钟的IReferenceClock::AdviseTime等待Sample的开始时间到达后再将这个Sample播放。

  Sample上的时间戳一般由Source Filter或Parser Filter来设置,设置的方法有如下几种情况:

  1. 文件回放(File playback):

  第一个Sample的时间戳从0开始打起,后面Sample的时间戳根据Sample有效数据的长度和回放速率来定。

  2. 音视频捕捉(Video and audio capture):

  原则上,采集到的每一个Sample的开始时间都打上采集时刻的Stream time。对于视频帧,Preview pin出来的Sample是个例外,因为如果按上述方法打时间戳的话,每个Sample通过Filter

  链路传输,最后到达Video Renderer的时候都将是迟到的;

  Video Renderer通过Quality Control反馈给Source Filter,会导致Source Filter丢帧。所以,Preview pin出来的Sample都不打时间戳。对于音频采集,需要注意的是,

  Audio Capture Filter与声卡驱动程序两者各自使用了不同的缓存,采集的数据是定时从驱动程序缓存拷贝到Filter的缓存的,这里面有一定时间的消耗。

  3. 合成(Mux Filters):

  取决于Mux后输出的数据类型,可以打时间戳,也可以不打时间戳。

  大家可以看到,Sample的时间戳对于保证音视频同步是很重要的。Video Renderer和Audio Renderer作为音视频同步的最终执行者,需要做很多工作。我们或许要开发其它各种类型的

  Filter,但一般这两个Filter是不用再开发的。一是因为Renderer Filter本身的复杂性,二是因为微软会对这两个Filter不断升级,集成DirectX中其它模块的最新技术

  (如DirectSound、 DirectDraw、Direct3D等)。

  最后,我们再来仔细看一下Live Source的情况。Live Source又叫Push source,包括Video /Audio Capture Filter、网络广播接收器等。

  Filter Graph Manager是如何知道一个Filter是Live Source的呢?通过如下任何一个条件判断:

  1. 调用Filter上的IAMFilterMiscFlags::GetMiscFlags返回有AM_FILTER_MISC_FLAGS_IS_SOURCE标记,并且至少有一个Output pin实现了IAMPushSource接口。

  2. Filter实现了IKsPropertySet接口,并且有一个Capture output pin(Pin的类型为PIN_CATEGORY_CAPTURE)。

  Live Source对于音视频同步的影响主要是以下两个方面:Latency和Rate Matching。

  1. Latency是指Filter处理一个Sample花费的时间,对于Live Source来说,主要取决于使用缓存的大小,比如采集30fps的视频一般采集完一帧后才将数据以一个Sample发送出去,则这个

  Filter的 Latency为33ms,而Audio一般缓存500ms后才发送一个Sample,则它的Latency就为500ms。这样的话,Audio与 Video到达Renderer就会偏差470ms,造成音视频的不同步。默认

  情况下,Filter Graph Manager是不会对这种情况进行调整的。当然,应用程序可以通过IAMPushSource接口来进行Latency的补偿,方法是调用

  IAMGraphStreams::SyncUsingStreamOffset函数。

  Filter Graph Manager的实现如下:对所有实现IAMPushSource接口的Filter调用IAMLatency::GetLatency得到各个 Source的Latency值,记下所有Latency值中的最大值,然后调用

  IAMPushSource::SetStreamOffset对各个 Source设置偏移值。

  这样,在Source Filter产生Sample时,打的时间戳就会加上这个偏移量。

  2. Rate Matching问题的引入,主要是由于Renderer Filter和Source Filter使用的是不同的参考时钟。这种情况下,Renderer对数据的播放要么太快,要么太慢。另外,一般

  Live Source不能控制输出数据的速率,所以必须在Renderer上进行播放速率的匹配。因为人的听觉敏感度要大于视觉敏感度,所以微软目前只在 Audio Renderer上实现了Rate Matching。

  实现Rate Matching的算法是比较复杂的,这里就不再赘述。

  看到这里,大家应该对DirectShow是如何解决音视频同步问题的方案有一点眉目了吧。深层次的研究,还需要更多的测试、Base class源码阅读,以及DirectShow相关控制机制的理解,比如Quality Control Management等。

  这些主要是针对技术开发软件提供的,由于现在流媒体视频工程中,对功能等要求更高,视频效果也有了要求,所以在技术应用上还是需要专业的人事来完成。可以说,目前九视推出的流媒体采集卡,其都可以支持DirectShow标准开发,甚至有的还提供完整的二次开发包SDK.了解更多的视频技术支持,您可以登录我们九视视频官方进行查找。




深圳九视电子科技有限公司从事九视电子系列视频采集卡图像采集卡高清录制盒HDMI采集卡SDI采集卡USB3.0采集卡高清视频采集卡USB视频采集卡视频信号转换器非编卡HDMI分配器HDMI切换器等视频产品研发,应用推广的专业公司.400-061-8657.


© 2002-2009 深圳九视电子科技有限公司 版权所有 | ICP备11049046号-2

销售热线: 400-061-8657 (总机)

销售地址:广东省深圳市宝安区西乡大道288号宝源华丰总部经济大厦B座529室