官方敢不敢出个同时包含PLPlayerKit和PLMediastreamingkit详解的demo

问题: xcode8同时导入PLCameraStreamingKit和PLPlayerKit 真机运行也报错
描述:1,错误提示:ld: warning: directory not found for option '-L/Users/mac/Desktop/未命名文件夹/AliveVideos/Pods/../ffmpeg/lib'Undefined symbols for architecture arm64:
"_RTMPError_Free", referenced from:
_rtmp_error_callback in libPLStreamingKit.a(push.o)
(maybe you meant: _PILI_RTMPError_Free)ld: symbol(s) not found for architecture arm64clang: error: linker command failed with exit code 1 (use -v to see invocation)2,导入方式:target 'AliveVideos' do
pod 'PLCameraStreamingKit'
pod 'PLPlayerKit'end3,尝试这样做没有了报错pod 'PLCameraStreamingKit', '~& 1.8.1'
pod 'PLPlayerKit'
但是这样导入会少几个东西
比如GPUImage,pili-ffmpeg等等
因为用pod也集成过其他三方 以为是冲突
后来新建项目只集成七牛的直播和播放器
还是报同样错误
我已经崩溃了。
已经找了很多了
就是没有找到类似的
我搞不懂 为什么pod集成也会报这样的错解决方案1:解决了吗,加我扣扣,讨论一下
以上介绍了“ xcode8同时导入PLCameraStreamingKit和PLPlayerKit 真机运行也报错”的问题解答,希望对有需要的网友有所帮助。
本文网址链接:/itwd/4026762.html
上一篇: 下一篇:1292人阅读
iOS学习(7)
Apple账号相关(2)
第一步下载PLCameraStreamingKit库
到github上下载PLCameraStreamingKit 库
PLCameraStreamingKit库下载地址:
下载之后得到以下的文件
其中我们必须需要拷贝到自己项目中的三个文件:
点击下载当前依赖库,放入项目中
第二步配置项目环境
在Build Phases的Link Binary With Libraries中添加以下类库在工程对应 TARGET 中,右侧 Tab 选择 “Build Phases”,在 “Link Binary With Libraries” 中加入 UIKit、AVFoundation、CoreGraphics、CFNetwork、CoreMedia、AudioToolbox 这些 framework,并加入 libc++.tdb、libz.tdb 及 libresolv.tbd;
在工程对应 TARGET 中,右侧 Tab 选择 “Build Settings”,在 “Other Linker Flags” 中加入 “-ObjC” 选项;
就可以开始你的推流之旅了
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:7664次
排名:千里之外
原创:11篇
(1)(1)(2)(1)(7)(一) iOS 直播类APP开发流程分解:&
1 . 音视频处理的一般流程:
数据采集→数据编码→数据传输(流媒体服务器) →解码数据→播放显示
1、数据采集:
摄像机及拾音器收集视频及音频数据,此时得到的为原始数据
涉及技术或协议:
摄像机:CCD、CMOS
拾音器:声电转换装置(咪头)、音频放大电路
2、数据编码:
使用相关硬件或软件对音视频原始数据进行编码处理(数字化)及加工(如音视频混合、打包封装等),得到可用的音视频数据
涉及技术或协议:
编码方式:CBR、VBR
编码格式
视频:H.265、H.264、MPEG-4等,封装容器有TS、MKV、AVI、MP4等
音频:G.711μ、AAC、Opus等,封装有MP3、OGG、AAC等
3、数据传输:
将编码完成后的音视频数据进行传输,早期的音视频通过同轴电缆之类的线缆进行传输,IP网络发展后,使用IP网络优传输
涉及技术或协议:
传输协议:RTP与RTCP、RTSP、RTMP、HTTP、HLS(HTTP Live Streaming)等
控制信令:SIP和SDP、SNMP等
4、解码数据:
使用相关硬件或软件对接收到的编码后的音视频数据进行解码,得到可以直接显示的图像/声音
涉及技术或协议:
一般对应的编码器都会带有相应的解码器,也有一些第三方解码插件等
5、播放显示:
在显示器(电视、监视屏等)或扬声器(耳机、喇叭等)里,显示相应的图像画面或声音
涉及技术或协议:
显示器、扬声器、3D眼镜等
(二) 视频推流与视频拉流的工作过程解析:
1.视频推流端
推流,就是将采集到的音频,视频数据通过流媒体协议发送到流媒体服务器。
一、选择流媒体协议
现在直播应用,采用RTMP协议居多,也有部分使用HLS协议。
采用RTMP协议,就要看下它与流媒体服务器交互的过程,RTMP协议的默认端口是1935
,采用TCP协议。并且需要了解FLV的封装格式。
采用HLS协议,因为涉及到切片,延时会比较大,需要了解TS流。
二、采集音视频数据
做直播,数据的来源不可缺少,就是采集摄像头,麦克风的数据。
iOS平台上采集音视频数据,需要使用AVFoundation.Framework框架,从captureSession会
话的回调中获取音频,视频数据。
三、硬编码,软编码音视频数据
软编码就是利用CPU资源来压缩音视频数据,硬编码与之相反。
软编码的话,现在广泛采用FFmpeg库结合编码库来实现,FFmpeg+X624来编码视频数据
YUV/RGB输出H264数据,
FFmpeg+fdk_aac来编码音频数据PCM输出AAC数据。
四、根据所选流媒体协议封包音视频数据
将音频,视频打包成packet。
五、与服务器交互发送封包数据
根据所选流媒体协议,发送相应指令连接服务器,连接服务器成功后,就可以发送packe
拉流,就是从流媒体服务器获取音频,视频数据。
一、解析协议
播放器端根据URL解析所用的流媒体协议(RTMP,HLS)。
二、解封装
解封装,就是demux的过程,从容器格式(FLV,TS)中,分离出音视频数据。
解码,就是把获取到的数据解压缩,恢复成原始数据。解码就是将H264变成YUV,AAC
解码可以使用软解码,硬解码。
软解码就是利用CPU资源去解压缩数据,采用的方式是FFmpeg解码。
硬解码,对于iOS平台来说,可以使用VideoToolbox.Framework(该框架只能在iOS 8.0及
以上系统使用)
硬解码视频数据。Android平台上,可以使用MediaCodec来硬解码视频数据。
四、渲染数据
采用OpenGL渲染YUV数据,呈现视频画面。将PCM送入设备的硬件资源播放,产生声
iOS播放流式音频,使用Audio Queue 的方式,即,利用AudioToolbox.Framework 框架。
三: iOS开发之iOS直播平台有用的第三方资源共享:
1. &实时美颜参考网址:/blog/real-time-filter/
2. 直播测试地址:
HLS:&凤凰卫视香港台
SMTP:&香港卫视
RSTP:&互动新闻台1
& & & 3. &HLS streaming工具下载,用于处理m3u8音、视频源的HLS
Streaming Tool Download
& &4.&直播相关SDK
& & & & 1.&&在新浪云上有文档说明,可阅读
& & & & 2.&&好像是收费的,价格还不便宜,一般公司可能也不会用,不过可以尝试看看,了解一下,有助于学习!
3. 暴风云直播 &&/apisdk/sdk/live/iossdk.html
&4. 融云直播 & &&/live
& & & & 5. 腾讯直播SDK &/solution/video.html
& &5. 直播相关开源库
& & & &1.&&基于GPUImage的图片处理,做美颜方面可以参考一下
& & & &2. &&&开源RTMP
Swift版的,可以学习一下!好像作者是日本的,或者是在日本
工作的,写了不少日文!
& & & &3. &&一个不依赖FFmpeg的播放器,支持RTMP
& & & &4. &HLS-Demo&&&/yangchao0033/HLS-Demo
&HLS播放demo
& & & &5.&SmarterStreaming&&/daniulive/SmarterStreaming
&直播SDK(支持
私有协议和RTMP推流,如windows推流/android推流/iOS推流/windows播放器/android播
放器/iOS播放器)
四: iOS开发之 iOS 直播平台&常见的视频直播相关协议详解
1、 & &RTMP(Real Time Messaging Protocol,实时消息传送协议)
RTMP是Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开
放协议。它有三种变种:
1)、工作在TCP之上的明文协议,使用端口1935;
2)、RTMPT封装在HTTP请求之中,可穿越防火墙;
3)、RTMPS类似RTMPT,但使用的是HTTPS连接;
RTMP协议是被Flash用于对象、视频、音频的传输。这个协议建立在TCP协议或者轮询H
TTP协议之上。RTMP协议就像一个用来装数据包的容器,这些数据既可以是AMF格式
的数据,也可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输多路
网络流,这些通道中的包都是按照固定大小的包传输的。
2、RTSP(Real Time Streaming Protocol,实时流传输协议)
RTSP定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。RTSP提供了一个可
扩展框架,数据源可以包括实时数据与已有的存储的数据。该协议目的在于控制多个数
据发送连接,为选择发送通道如UDP、组播UDP与TCP提供途径,并为选择基于RTP上
发送机制提供方法。
RTSP语法和运作跟HTTP/1.1类似,但并不特别强调时间同步,所以比较能容忍网络延迟
。代理服务器的缓存功能也同样适用于RTSP,并且因为RTSP具有重新导向功能,可根
据实际负载情况来切换提供服务的服务器,以避免过大的负载集中于同一服务器而造成
3、RTP(Real-time Transport Protocol,实时传输协议)
RTP是针对多媒体数据流的一种传输层协议,详细说明了在互联网上传递音频和视频的
标准数据包格式。RTP协议常用于流媒体系统(配合RTCP协议),视频会议和一键通系
统(配合H.323或SIP),使它成为IP电话产业的技术基础。
RTP是建立在UDP协议上的,常与RTCP一起使用,其本身并没有提供按时发送机制或其
它服务质量(QoS)保证,它依赖于低层服务去实现这一过程。
RTP 并不保证传送或防止无序传送,也不确定底层网络的可靠性,只管发送,不管传输
是否丢包,也不管接收方是否有收到包。RTP 实行有序传送,RTP中的序列号允许接收
方重组发送方的包序列,同时序列号也能用于决定适当的包位置,如在视频解码中,就
不需要顺序解码。
4、RTCP(Real-time Transport Control Protocol,实时传输控制协议)
RTCP是RTP的配套协议,为RTP媒体流提供信道外的控制。RTCP和RTP一起协作将多媒
体数据打包和发送,定期在多媒体流会话参与者之间传输控制数据。
RTCP的主要功能是为RTP所提供的服务质量(QoS)提供反馈,收集相关媒体连接的统
计信息,例如传输字节数,传输分组数,丢失分组数,单向和双向网络延迟等等。网络
应用程序可以利用RTCP所提供的信息来提高服务质量,比如限制流量或改用压缩比小的
编解码器。
1.实时美颜参考网址:/blog/real-time-filter/
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:24386次
排名:千里之外
原创:48篇
转载:10篇
(1)(2)(7)(2)(9)(16)(1)(9)

我要回帖

更多关于 spark streaming demo 的文章

 

随机推荐