谁用过realsense sourceF200?它是不是无法获取黑色部分的深度?比如人体的头发,眉毛

&2017 天极网旗下网站Intel Edison Realsense F200开箱—Intel Edison论坛—DF创客社区 -
Powered by Discuz! Archiver
Intel Edison Realsense F200开箱
虽然Intel官方发布已经有一段时间了,但身边玩的小伙伴也还不是很多啊。今天入手一个我们一块来看看吧。
沉甸甸的一个外包装。一层层拆开包装盒,就看见庐山真面目了。说实话,刚看到的时候心里飘过一丢丢的小失望——样子看上去跟Kinect着实太像了。
快速浏览了下说明书,感觉这个货似乎就是升级版的Kinect嘛。
一个IR camera
一个HD1080p camera
一个IR Laser projector
配饰上没什么让我惊艳的地方,要求到不低啊,至少需要USB3.0,也不知道为什么需要这么快的速度,没有细算,估计1080p的图像,加上等大的红外的深度数据。
好在跟Kinect相比,省掉了一个外接电源,这一点很欣赏!
不知道官方的SDK知道到什么程度啊,有点小期待。
但特别特别遗憾的是,估计这货是没办法用在Edison了吧?!
照片是大半夜12点半拍的,大家忍了吧!
edsionkaifaban
实感3D摄像头,好厉害
有最近入手了一个realsense R200:lol
IC爬虫 发表于
有最近入手了一个realsense R200
玩起来了没有?R200 和 F200 除了外形,那些区别了解过没?
半夜十二点半程序猿的世界我们不懂
孙毅 发表于
玩起来了没有?R200 和 F200 除了外形,那些区别了解过没?
这两个应用的情景不一样,F200主要针对的是前置摄像头应用,R200针对的是后置摄像头的应用。
F200更多的应用于识别,R200更多应用一扫描
吹口琴的钢铁侠
能用在Edison上?
吹口琴的钢铁侠 发表于
能用在Edison上?
目测够呛,需要usb3.0,Edison么有~~
程序猿的世界
吹口琴的钢铁侠
孙毅 发表于
目测够呛,需要usb3.0,Edison么有~~
挽尊......等Edison2
dsweiliang
我也很想要啊~
dsweiliang 发表于
我也很想要啊~
嘻嘻嘻。。。。多发帖啊,保不齐会有惊喜啊。。。
dsweiliang
孙毅 发表于
嘻嘻嘻。。。。多发帖啊,保不齐会有惊喜啊。。。
难道有得送?
这货你从那个渠道拿来的啊
Ricky 发表于
这货你从那个渠道拿来的啊
啊。。。这个很难拿到吗?Y(^o^)Y
这要都拿不到,那就干不了版主了啊。。。吼吼吼
这东西看起来还不算大哈?比起Kinect要小不少
lianuo 发表于
这东西看起来还不算大哈?比起Kinect要小不少
恩,是小一圈。。。。
之前玩Kinect苦于分辨率实在是太低,这个据说还可以,只是。。。还没有玩起来。。哈哈哈
查看完整版本:深度相机(四)--Realsense概览【计算机视觉】
本文参考下文,做一点个人使用补充。
http://blog.csdn.net/app_/article/details/
http://blog.csdn.net/dfdfdsfdfdfdf/article/details/
Intel RealSense(实感技术)概览
前段时间CES的报道满天飞,网上逛了几圈,感觉料最猛的还数Intel:老树开新花,推出14nm的第五代酷睿处理器;在智能可穿戴设备及物联网上雄起;RealSense实感技术开启未来人机交互模式。之前总听老哥讲,鼠标键盘这些传统交互模式统治了二三十年,目前跟踪识别爆火且技术趋于成熟,新的交互革命快要打响了。看RealSense这阵势,估计不出三五年新的交互便会普及开来。
英特尔早在2012年左右就着重研发实感技术,当时叫Perceptual Computing,即感知计算,并开放英特尔(R) 感知计算软件开发套件 2013 版(Intel(R) Perceptual Computing Software Development Kit, SDK 2013),设重奖举办因特尔感知计算挑战赛,吸引众多开发者参与。随着技术完善与成熟,2014年初更名为RealSense,即实感技术,而后发布了新的Intel(R) RealSense(TM) SDK 2014 ,同时举行2014英特尔(R)RealSense(TM)应用挑战赛。
RealSense github: /IntelRealSense/librealsense
基于此技术的应用在IDF2014及今年CES上大放异彩。
Intel(R) RealSense(TM) SDK的架构:SDK core,I/O module和Capability modules组成整个SDK堆栈的基础。SDK core管理I/O module和Capability modules同时组织并管理管线的执行。I/O module捕获设备的输入数据而后发送数据到输出设备或Capability modules。Capability modules也叫algorithm modules,主要包括各种模式检测和识别算法(面部跟踪和检测、手部跟踪、手势识别、语音识别及合成等)。
各功能:手部和手指跟踪、面部分析、语音识别、背景移除、目标跟踪、增强现实、3D扫描。
SDK将手抽象出骨架,并从背景中剥离出来。允许在照相机的0.2–1.2米范围内跟踪手上的22个点的位置和方向,如图。左右手是区分的,因而可以双手进行交互。
手势识别:包括静态手势识别和动态手势识别。SDK中内嵌了一系列手势如下图。你可以用内嵌的这些手势组合出新的手势,也可以根据手骨架上那22个点位置创建出新的手势。
动态手势识别:静态手势可以单独使用,当然也可以组合使用形成一定的动作。组合时要求开始的手势和结束的手势都已在手势识别系统中注册。
SDK给出了一系列动作如下:
脸部检测:SDK提供精确的3D脸部检测和跟踪,且可以同时跟踪4张人脸。每张人脸用长方形来标记,你可以获得长方形的XYZ坐标。与2D跟踪相比,3D头部跟踪在头部运动方面更给力。
脸部识别:SDK提供识别特定人脸的能力。特定ID对应注册的特定人脸,并将此人脸的信息存储到人脸库的内存中。如果同张人脸被注册多次,那这张人脸被正确识别的机会将会增大。当没被识别的人脸出现时,识别模块将与数据库中的可能数据进行比对,如果找到匹配则返回此人脸对应的ID。
用户不用担心自己的头像被存储,因为存储的只是算法从图像中提取的特征的集合。
头的运动:SDK提供头部运动的3D方向:俯仰、左右转动、左右偏转,如图。
所以可以轻松获得用户头部指向哪里。也可以以此做粗略的眼神跟踪,下一版将会推出更精细的眼神跟踪。
标记点跟踪:SDK提供脸部78个标记点的跟踪以提高脸部识别和分析的精确度。在图像和坐标系中给出这78个标记点的位置。脸部标记点跟踪支持头像创建、脸部动画、拟态及简单的表情识别。可以直接用这些点或这些点的相对位置来作分析。不管你有没有刘海、戴不戴眼镜,这种标记点跟踪都支持。但用户头部在屏幕30度内效果最好。
面部表情识别:SDK也包括更高级的面部表情识别。这使得你创建卡通头像更简单。每一种表情有1到100的强度等级使得你做的动画更平滑自然。SDK中表情:
情感识别:SDK中的情感识别算法用的是2D RGB数据。情感模块是独立的模块,并非脸部模块的一部分。为保障情感识别正常工作,图像中的人脸至少要有48×48个像素。此算法并不局限于RGB数据,灰度数据同样可行。利用SDK,你可以检测并估计以下六种原始情感的强度。
头像控制:SDK通过结合面部表情及78个标记点提供简单的头像控制功能。SDK提供动画角色的示例代码,使你的应用可以适应任何脸型并把用户头像动画化。
应用场景:
主要包括语音命令和控制、听写、从文字转译成语音等功能。只支持英语,语音识别对成年人效果最好。
语音识别:分为命令模式和听写模式。命令模式需提前设定命令列表,特定命令绑定特定动作。听写模式内置了一个通用的词典,包括50k个常用单词。如果你觉得不够用,也可以自己添加词典中没有的单词。听写模式限时30秒。命令和听写模式不可同时开启。
语音分析:SDK也可以根据文本动态的生成语音,由女声读出。
4. 背景移除
可以实时的移除背景并替换成新的背景。
应用场景:
5. 目标跟踪
Metaio*3D目标跟踪模块提供基于光学的跟踪技术,可以跟踪视频序列或场景中的目标物。Metaio工具箱可以训练、创建并编辑3D模型,这些模型可以传给各种目标检测及跟踪算法。
跟踪技术支持平面的2D目标跟踪、基于特征的3D跟踪、CAD模型的基于边界的3D跟踪及即时3D跟踪。
6. 增强现实
用音频、视频、图像或其他信息来添加、增强或补充英特尔实感技术游戏的内容。
7. 三维扫描和打印
可以扫描、编辑、打印和分享三维物体,并与 3D Systems展开合作。
目前因特尔已经与腾讯合作创立游戏创新实验室,推进实感技术,并打造了《轩辕传奇》。与京东合作建立“京东因特尔联合创新实验室”,推出虚拟试衣、3D物品展示等,使实感技术落地电商平台。同时因特尔自己也在不断推出自己的实感技术产品。这不前两天在北京推出其全新的第五代酷睿处理器家族,搭载此处理器的多款产品还配备了英特尔实感技术,看来这项技术很快就会遍地开花。
只要你的处理器是第四代及四代以后英特尔(R) 酷睿(TM)处理器,操作系统满足Microsoft* Windows 8.1(仅限64 bit),再外购一个英特尔(R) RealSense(TM) 3D 摄像头就可以下载SDK玩起来。估计不久联想、戴尔、华硕、宏基、惠普等等搭载第五代酷睿处理器并内嵌因特尔3D摄像头的超极本、二合一及一体机设备就会上市,那时玩起来会更爽。
资料来源:RealSenseSDKdesignGuidelinesGold/sites/default/files/managed/0b/0a/RealSenseSDKdesignGuidelinesGold.pdf
补充一点自己的实际体会:
1.基于结构光方案的深度相机,受光线影响很大,下午太阳光照进来,深度数据残缺严重,这个就是所谓的激光散斑受强光淹没掉了。
2.手势识别中,静态手势,手型识别效果不错。同时,对着深度相机方向的手势运动,识别效果也不错。但左右方向的运动手势,效果很差。主要是视场角小,深度数据残缺严重。
3.SDK可支持多个设备同时链接 。采用一台设备,一个线程来管理维护。线程内部,SDK所有功能都支持。也就是多个设备互不影响。
4.手势识别,在20~55cm范围内可用。其实,整体来看,只能是小范围运动情况了。
5.手势,采用22点骨架模型。
6.SR300是 F200的升级版。SR300近距应用,实际范围 大概在20~150cm。R200是远距离应用,大概是40~280cm.两者都支持RGB(0P@60),D(VGA@60),但RGB 16:9,D 4:3,蛋疼的一点是,R200 4th CPU, SR300 6th CPU....
& & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & & &
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点RealSense 开发(一):深度图像获取 - CSDN博客
RealSense 开发(一):深度图像获取
RealSense 开发(一):深度图像获取
安装与配置VS工程
新建VS工程,项目属性
C++附加目录添加:
$(RSSDK_DIR)/$(RSSDK_DIR)/sample/common/
链接器附加库目录添加:
$(RSSDK_DIR)/lib/$(PlatformName);
$(RSSDK_DIR)/sample/common/lib/$(PlatformName)/$(PlatformToolset);
Release模式附加依赖项添加:
libpxc.lib
libpxcutils.lib
Debug模式附加依赖项添加:
libpxcutils_d.
至此,配置完成
添加main.cpp,内容如下:
//灰度图转伪彩图
void f_gray2color(Mat gray_mat,Mat color_mat)
int height=gray_mat.
int width=gray_mat.
for(int i=0;i&i++)
for(int j=0;j&j++)
p=gray_mat.ptr&uchar&(i);
q=color_mat.ptr&Vec3b&(i);
if(p[j]==0)
{q[j][0]=0;q[j][1]=0;q[j][2]=0;}
q[j][0]=255-p[j];
q[j][1]=128-abs(128-p[j]);
q[j][2]=p[j];
int main()
//Mat image = imread("1.jpg");
//namedWindow("pic_viewer", CV_WINDOW_NORMAL);
//setWindowProperty("pic_viewer", CV_WND_PROP_FULLSCREEN, CV_WINDOW_FULLSCREEN);
//imshow("pic_viewer", image);
//waitKey(1000); //每隔1秒显示
//destroyAllWindows();
UtilRender
*renderDepth=new UtilRender(L"DEPTH_STREAM");
Mat framepic(480,640,CV_16UC1);//深度帧
Mat preFramePic(480,640,CV_16UC1);//深度帧
int frameCount = 0;
PXCSenseManager *sm=PXCSenseManager::CreateInstance();
PXCVideoModule::DataDesc desc={};
desc.deviceInfo.streams = PXCCapture::STREAM_TYPE_COLOR | PXCCapture::STREAM_TYPE_DEPTH;
//sm-&EnableStream(PXCCapture::STREAM_TYPE_DEPTH,640,480);
sm-&EnableStreams(&desc);
pxcStatus sts=sm-&Init();
if (sts&PXC_STATUS_NO_ERROR) {
wprintf_s(L"Failed to locate any video stream(s)\n");
sm-&Release();
if(sm-&AcquireFrame(true)&PXC_STATUS_NO_ERROR)
cout&&"未正常打开"&&
PXCCapture::Sample *sample;
PXCImage *depthpic;
PXCImage:: ImageData depthImageD
PXCImage:: ImageData colorImageD
PXCImage::ImageI
while (sm-&AcquireFrame(true)&=PXC_STATUS_NO_ERROR)
sample=sm-&QuerySample();
depthpic=sample-&
if (depthpic-&AcquireAccess(PXCImage::ACCESS_READ,&depthImageData)&PXC_STATUS_NO_ERROR)
cout&&"未正常获取深度图像"&&
dinfo=depthpic-&QueryInfo();
ushort* dpixels=(ushort*)depthImageData.planes[0];
int dpitch=depthImageData.pitches[0]/sizeof(ushort);
for (int y=0;y&(int)dinfo.y++)
ushort* p=framepic.ptr&ushort&(y);
for(int x=0;x&(int)dinfo.x++)
ushort d=dpixels[y*dpitch+x];
//距离在0.2m至1.2m之间
//if (d&0)
p[x]=255-0.255*(d-200);
//framepic.convertTo(output,CV_8UC1,1);
Mat color(480,640,CV_8UC3,Scalar(255,255,255));
//f_gray2color(output,color);
if (frameCount&1)
for (int y=0;y&(int)dinfo.y++)
ushort* p=framepic.ptr&ushort&(y);
ushort* pp=preFramePic.ptr&ushort&(y);
Vec3b *q= color.ptr&Vec3b&(y);
for(int x=0;x&(int)dinfo.x++)
if (abs(p[x]-pp[x])&10)//p[x]!=0 && pp[x]!=0 &&
//printf("%d\n",p[x]);
q[x][0]=0;
q[x][1]=0;
q[x][2]=255;
//imshow("depth picture",output);waitKey(1);
//imwrite("dd.png",output);
framepic.copyTo(preFramePic);
frameCount++;
depthpic-&ReleaseAccess(&depthImageData);
if(!renderDepth-&RenderFrame(depthpic)) break;
imshow("伪彩图",color);
waitKey(1);
sm-&ReleaseFrame();
sm-&Release();
本文已收录于以下专栏:
相关文章推荐
(转载请注明出处)
获取R200的图像并用opencv显示
RealSense SDK环境配置
librealsense代码说明
librealsense
#include &util_render.h&
也可在我的电脑或桌面空白处直接右键-checkout,填写URL和用户名密码,输入本地文件夹名称即可。3)更新本地工作目录文件:     工作目录右键update,作用是更新,保持与服务器最新版本同步...
其实realsense的彩色图与深度图对齐非常简单,因为当你开始采集彩色图与深度图流时,会自动产生一个对齐后的图像流,一个是彩色对齐深度:color_aligned_to_depth,一个是深度对齐彩...
最近在学习realsense,期间遇到了很多麻烦,经过大家的帮助最终都解决了。现在记录下来,也方便帮助他人。
这篇文章主要是实现opencv显示realsense读取的彩色和深度数据。
首先说一下...
又一次坎坷的尝试。
因为需要把realsense的深度图像对齐到彩色空间。
我知道官方的SDK中Projection.cpp的例子。
但是那个程序(C++版)是基于MFC框架写得,一看什么消息什...
他的最新文章
讲师:何宇健
讲师:董岩
您举报文章:
举报原因:
原文地址:
原因补充:
(最多只允许输入30个字)

我要回帖

更多关于 librealsense 的文章

 

随机推荐