HTTP Live Streaming直播(iOS直播)技术分析与实现

  • 时间:
  • 浏览:0

    

  一有有俩个简单的m3u8索引文件

  通过苹果77手机苹果77手机播放的效果

  相对于常见的流媒体直播协议,类事RTMP协议、RTSP协议、MMS协议等,HLS直播最大的不同在于,直播客户端获取到的,并都有一有有俩个完整版的数据流。HLS协议在服务器端将直播数据流存储为连续的、很短时长的媒体文件(MPEG-TS格式),而客户端则不断的下载并播放哪几种小文件,将会服务器端无缘无故会将最新的直播数据生成新的小文件,可是 客户端只要不停的按顺序播放从服务器获取到的文件,就实现了直播。由此可见,基本能否能认为,HLS是以点播的技术法律依据来实现直播。将会数据通过HTTP协议传输,很多很多完整版不要再考虑防火墙将会代理的问题图片图片,或者分段文件的时长很短,客户端能否调快的选者和切换码率,以适应不同传输速率条件下的播放。不过HLS的类事技术特点,决定了它的延迟一般无缘无故会高于普通的流媒体直播协议。

  haibindev.cnblogs.com,合作法律依据请联系QQ。(转载请注明作者和出处)

  TsMuxer的接口也是比较简单的。

  前些日子,也是项目时需,花了一些时间研究了HTTP Live StreamingHLS)技术,并实现了一有有俩个HLS编码器HLSLiveEncoder,当然,C++写的。其功能是埋点摄像头与麦克风,实时进行H.264视频编码和AAC音频编码,并按照HLS的协议规范,生成分段的标准TS文件以及m3u8索引文件。通过我的HLSLiveEncoder和第三方Http服务器(类事:Nginx),成功实现了HTTP Live Streaming直播,并在iphone上测试通过。我就把这当中的一些收获写在这里。

  

    

  在Nginx工作目录下启动HLSLiveEncoder,并用VLC播放器连接播放

     

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

  

  通过以上分析,实现HLS LiveEncoder直播编码器,其逻辑和流程基本上很清楚了:分别开启音频与视频编码应用程序,通过DirectShow(或一些)技术来实现音视频埋点,很久 分别调用libx264和libfaac进行视频和音频编码。有有俩个编码应用程序实时编码音视频数据后,根据自定义的分片策略,存储在某个MPEG-TS格式分段文件中,当完成一有有俩个分段文件的存储后,更新m3u8索引文件。如下图所示:

     

  上图中HLSLiveEncoder当收到视频和音频数据后,时需首先判断,当前分片否是应该刚结束,并创建新分片,以延续TS分片的不断生成。时需注意的是,新的分片,应当从关键帧刚结束,正确处理播放器解码失败。核心代码如下所示:

  根据以上的了解要实现HTTP Live Streaming直播,时需研究并实现以下技术关键点

  其中第1点和第2点,我过后的文章中将会提到过了,而最后一些,一些人能否借助现有的HTTP服务器,很多很多,实现第3点和第4点是关键所在。

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

不经意间发现,大5天 没写博客了,自觉汗颜。实则2012后5天 ,家中的事一样接着一样指在,确实是这么时间。快过年了,总算忙里偷闲,把最近的一些技术成果,总结成了文章,与一些人分享。

  HTTP Live StreamingHLS)是苹果77手机苹果77手机公司(Apple Inc.)实现的基于HTTP的流媒体传输协议,可实现流媒体的直播和点播,主要应用在iOS系统,为iOS设备(如苹果77手机苹果77手机、iPad)提供音视频直播和点播方案。HLS点播,基本上可是 常见的分段HTTP点播,不同在于,它的分段非常小。要实现HLS点播,重点在于对媒体文件分段,目前有不少开源工具能否使用,这里我就不再讨论,只谈HLS直播技术。

  m3u8,是HTTP Live Streaming直播的索引文件。m3u8基本能否能认为可是 .m3u格式文件,区别在于,m3u8文件使用UTF-8字符编码。