眼动怎么把exe的实验文件饥荒眼球炮塔放置位置进去

| 时间排序
&img src=&/v2-7bea3af083ce5b65cec3b7_b.png& data-rawwidth=&906& data-rawheight=&1348& class=&origin_image zh-lightbox-thumb& width=&906& data-original=&/v2-7bea3af083ce5b65cec3b7_r.png&&
期待答主的真机测评,明天就发售了,2014年FOVE就做到了帮助特殊人群这项举动,是每一个做相关产业的从业者前进下去的动力
期待答主的真机测评,明天就发售了,2014年FOVE就做到了帮助特殊人群这项举动,是每一个做相关产业的从业者前进下去的动力
眼动技术在行为决策方面的应用研究近几年也挺多的,我最近也在关注这一方面的研究。&br&通过关键词 eye tracking和 decision making可以搜索到一些不错的研究可以参考,我看的虽然也不多,但有两篇印象比较深刻,题主可以参考:&br&眼动与决策的综述:&br&Glaholt, M. G., &
Reingold, E. M. (2011). Eye movement monitoring as a process tracing
methodology in decision making research. &i&Journal of Neuroscience, Psychology, and Economics&/i&, &i&4&/i&(2), 125.&br&眼动在道德决策中的研究:&br&P?rnamets, P., Johansson,
P., Hall, L., Balkenius, C., Spivey, M. J., & Richardson, D. C.
(2015). Biasing moral decisions by exploiting the dynamics of eye gaze. &i&Proceedings of the National Academy of Sciences&/i&, &i&112&/i&(13), .
眼动技术在行为决策方面的应用研究近几年也挺多的,我最近也在关注这一方面的研究。 通过关键词 eye tracking和 decision making可以搜索到一些不错的研究可以参考,我看的虽然也不多,但有两篇印象比较深刻,题主可以参考: 眼动与决策的综述: Glaholt, M…
如果是用自带的 eb编程,那么有详细的说明书。如果用eprime或matlab还要自己写接口代码。
如果是用自带的 eb编程,那么有详细的说明书。如果用eprime或matlab还要自己写接口代码。
谢邀,可是我读的文献肯定没你&a href=&///people/6f2f3ebc451& data-hash=&6f2f3ebc451& class=&member_mention& data-hovercard=&p$b$6f2f3ebc451&&@大鹅&/a& 多啊~&br&几乎没有关注过阅读方面的研究,但是眼动确实是从阅读研究中发展过来的。所以我觉得或许确实是在阅读方面的研究比其他领域更多。&br&我是用眼动技术做决策研究的,就我自己找文献的经验,以及浏览过的两三篇眼动技术发展的综述来看,也有感觉眼动技术大部分用在阅读研究,其次是图像搜索或者图片感知觉研究中。
谢邀,可是我读的文献肯定没你 多啊~ 几乎没有关注过阅读方面的研究,但是眼动确实是从阅读研究中发展过来的。所以我觉得或许确实是在阅读方面的研究比其他领域更多。 我是用眼动技术做决策研究的,就我自己找文献的经验,以及浏览过的两三篇眼动技术…
excel就可以完成数据的分析,如果要加工轨迹,兴趣区等图用自带软件完成。怎么做还是得好好看手册,没有捷径
excel就可以完成数据的分析,如果要加工轨迹,兴趣区等图用自带软件完成。怎么做还是得好好看手册,没有捷径
处理第一批数据后&br&========================&br&浅谈,使用tobii pro glasses 2后的一些感受。&br&新一代处理软件比之前的有更大的处理数据的能力,可以自动map,&br&但是要求图片还原度较高,因为自动map的原理是图片像素点的一致。&br&&br&这批数据有动态眼动,和定点静态眼动。相比之下,定点的静态眼动自动map的还是非常好的,精度比较高。&br&跟传统的tobii桌面式感觉差不多,但是拓展了应用的范围,不局限在屏幕前了。&br&&br&动态眼动数据匹配起来比较难,自动map只能匹配一部分,而且还有很多错误的地方,需要手动map。但是眼动工程师讨论,他们认为这种情况比较奇怪,应该都可以匹配,但是从我实际处理数据的角度看,是因为所有的眼动数据在记录的时候镜头是自动对焦的,所以光线影响了呈现的像素点,但是也是由于本次试验是在室外,所以可能室内会好一点?!室内的数据我还没有处理,等处理之后补上。&br&还有一点动态map的问题,map时候需要相应的图片,但是本次实验动态纪录眼动的时候,角度非常的广,基本已经超过180度了,广角的图片非常难拍,组里面有专业的摄影专业的同学也表示即使拍出来了但是估计map不上。。第一次实验考虑不周,所以也没拍,但是其中一个角度较为小一点的眼动数据,换了一个远的角度的图片,进行对比,map的还可以,但是兴趣区就会变的特别小并且难map了。。所以最后还是拆分成两次进行map。 &br&所以这是对于glasses 2在 实验设计过程中要先考虑的问题了。map的图片一定要拍好啊!&br&&br&以上才是原始眼动数据的map,漫漫长路一小步,之后就是各种数据的选取以及分析了。。。这个就需要根据任务进行选择了,,,大家可能不太一样,选取
几个就是可以了,太多之间会互相矛盾,并且处理量会比较大,我这次选取的兴趣区关注时长和关注点个数(包括0,因为后面要进行统计),首次关注时间比较难,跟位置很有关系。这就要看任务的设计以及想要得出的原因了。&br&&br&&br&=========补充&br&上面说了很多关于实验结束后map的问题,接下来谈谈指标的选取&br&tobii 的指标一共有两类:可视化指标和量化指标&br&&br&可视化指标有热点图和轨迹图。 在出图时要注意,数据gaze filter 时raw还是atttention,一般这里选取attention。type的选取要看实验设计时是count还是duration更能反映索要测量的因变量,duration貌似更好看一点。radius的选取就看怎么好看就可以了,没有一成不变的规则,只要能反映出索要观测的兴趣区就可以了&br&&br&量化指标首先是兴趣区的画法,接下来主要选择的是时长次数首次关注时间几个硬指标,做一些定量分析用了。但是也要注意输出时选取的事raw还是attention了&br&图片涉密不补了
处理第一批数据后 ======================== 浅谈,使用tobii pro glasses 2后的一些感受。 新一代处理软件比之前的有更大的处理数据的能力,可以自动map, 但是要求图片还原度较高,因为自动map的原理是图片像素点的一致。 这批数…
玻璃的肯定是过时了,我之前是玻璃,玻璃重,容易碎。现在戴一种高分子塑料,我也想知道有没有更先近的义眼了。
玻璃的肯定是过时了,我之前是玻璃,玻璃重,容易碎。现在戴一种高分子塑料,我也想知道有没有更先近的义眼了。
不能啊旁友,万一是在发呆你其实看不出来的,这个事情啊,必须要一个好的实验设计。
不能啊旁友,万一是在发呆你其实看不出来的,这个事情啊,必须要一个好的实验设计。
你讲,我用过 然而数据分析还是非常复杂
你讲,我用过 然而数据分析还是非常复杂
目前技术来讲,就是累,因为作为交互方式,眼睛能做的有限,就是注视、扫视、眨眼等几种有限方法,而且由于硬件的原因,还不一定准。&br&我见过很多用户体验完了给残疾人设计的眼动沟通辅具,都表示好累啊,一直瞪着眼。&br&然我我只能讲,刚开始都这样,用习惯了就好了。&br&用习惯了的确会好一些,但习惯的过程很长,所以正常的人对于眼控,除非在特定必须用眼控的情况下,都是拒绝的。&br&楼主强推的FOVE没用过,不知道好不好用,但我用XBOX配合tobiiEYEX玩过刺客信条。&br&说简单点就是,你需要很长时间配合才能适应,用眼睛调控视角,而且准确度感人,你觉得可以完全不用鼠标的时候,忽然就捕捉不到眼睛存在了!然后悲催。&br&现在的游戏,准星与视角是一体的,用眼控,准星和视角必须分开。&br&没这么做的话,体验将会很差,所以如果眼控成为主流,那开发游戏的厂商要重新确定一下玩法。
目前技术来讲,就是累,因为作为交互方式,眼睛能做的有限,就是注视、扫视、眨眼等几种有限方法,而且由于硬件的原因,还不一定准。 我见过很多用户体验完了给残疾人设计的眼动沟通辅具,都表示好累啊,一直瞪着眼。 然我我只能讲,刚开始都这样,用习惯了…
&a data-hash=&b05cd1b5a2c485e20b2486& href=&///people/b05cd1b5a2c485e20b2486& class=&member_mention& data-editable=&true& data-title=&@胡痴儿2.0& data-hovercard=&p$b$b05cd1b5a2c485e20b2486&&@胡痴儿2.0&/a&以及 &a data-hash=&2d40cce87e12f94919c1d& href=&///people/2d40cce87e12f94919c1d& class=&member_mention& data-editable=&true& data-title=&@pollydiary& data-hovercard=&p$b$2d40cce87e12f94919c1d&&@pollydiary&/a& 已经讲得非常全面了,我补充一点。&br&关于 &a data-hash=&2d40cce87e12f94919c1d& href=&///people/2d40cce87e12f94919c1d& class=&member_mention& data-editable=&true& data-title=&@pollydiary& data-hovercard=&p$b$2d40cce87e12f94919c1d&&@pollydiary&/a& 提到的提升计算效率的问题,我个人目前不是很看好,因为人眼扫描速率很快,实时计算注视点位置并且渲染这个计算过程可能不比整屏渲染消耗的资源少。我了解的是可能做成九宫格或者类似屏幕分块的,大致看一下注视点在哪个位置然后把一块全渲染掉,作为一种平衡的办法,但人眼移动实在是非常快啊!这种办法能否实现还是不很清楚。&br&&br&然后眼动瞄准什么的需要一个前提就是游戏的准星与视角要分开,大家玩FPS游戏会发现你动动鼠标枪口转了然后视角也转,枪口始终在屏幕正中的位置。但是眼控不可以这样,必须是两层操作:头部转动调整视角,眼睛注视控制瞄准点,二者必须分开。&br&&br&国外目测已经有飞机的火控头盔在研究把眼动加进去了,发展状况我还在看文献,不上图了。
已经讲得非常全面了,我补充一点。 关于
提到的提升计算效率的问题,我个人目前不是很看好,因为人眼扫描速率很快,实时计算注视点位置并且渲染这个计算过程可能不比整屏渲染消耗的资源少。我了解的是可能做成九宫…
&img src=&/a39dfe09b6b_b.jpg& data-rawheight=&1280& data-rawwidth=&720& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/a39dfe09b6b_r.jpg&&
我记得他们是用激光追踪眼球动态……不觉得听起来有很强的安全隐患吗?眼睛每天被激光射半小时,求一年后视力下降多少?(只是猜测,求理科狗考证)&img data-rawwidth=&750& data-rawheight=&1334& src=&/aaa1ecd68a39b7c0f0045_b.jpg& class=&origin_image zh-lightbox-thumb& width=&750& data-original=&/aaa1ecd68a39b7c0f0045_r.jpg&&&br&看这充满血丝的眼睛。&br&&br&难道不可以用迷你相机来做颜色识别吗?比如黑白相机识别眼白在哪眼黑在哪什么的……
我记得他们是用激光追踪眼球动态……不觉得听起来有很强的安全隐患吗?眼睛每天被激光射半小时,求一年后视力下降多少?(只是猜测,求理科狗考证) 看这充满血丝的眼睛。 难道不可以用迷你相机来做颜色识别吗?比如黑白相机识别眼白在哪眼黑在哪什么的……
我们都知道目前VR的主要交互式头部追踪,而眼动则算得上在头部追踪的一大提升,你眼睛看的地方则表示了你的&b&&i&&u&认知意图(cognitive intent)&/u&&/i&&/b&。&br&如下图,眼睛作为普通的视觉输入器官,如果只看到视觉信息则很被动。但,当眼睛能够输入并及时得到视觉反馈时,便有了interactive的感觉。&br&&img src=&/fd57a4ce4cc64f747f377b_b.png& data-rawwidth=&1007& data-rawheight=&346& class=&origin_image zh-lightbox-thumb& width=&1007& data-original=&/fd57a4ce4cc64f747f377b_r.png&&&br&从交互成本的角度来说,眼动是目前所有交互中最轻松的(当然与之带来相应的代价就是误触发的几率上升),如果你玩头动的VR一段时间(特别是在电脑前),很可能脖子转动得酸痛,而眼睛相反,你盯着近处一个地方才会累,而当眼睛经常转动和变焦,反而不累。&br&&img src=&/f1b5fbd7_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/f1b5fbd7_r.png&&&br&&img src=&/1f01d89ef849abfd2e2ad5f4cfd6747f_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/1f01d89ef849abfd2e2ad5f4cfd6747f_r.png&&&br&另外,它的cursor可以不是屏幕的中心,而是你眼睛的聚焦中心。因为眼球追踪主要有&b&&i&&u&眼睛的位置(eye positions)&/u&&/i&&/b&和&b&&i&&u&眼睛的运动(eye movement)&/u&&/i&&/b&两种。&br&而眼睛的运动分为&b&&i&&u&注视(fixations)&/u&&/i&&/b&和&b&&i&&u&扫视(saccades)&/u&&/i&&/b&。眼睛的一列运动无非是注视一个地方,看一会儿,然后注意力某东西吸引,眼睛大面积扫视,发现目标,开始注视……而视觉中心走过后留下了长长的尾巴,则叫&b&&i&&u&扫描路径(&/u&&/i&&/b&&b&&i&&u&Scanpath)&/u&&/i&&/b&。&br&注视时,你注视的物体处于你的视觉中心,成像多在黄斑(视网膜中央),图像清晰饱和度高;而扫视时,来回的扫动则更多用到了外围视觉,范围大,对运动和对比度敏感。(详见我在《&a href=&/question//answer/?from=profile_answer_card& class=&internal&&除了光场,还有什么方式能解决VR显示的accommodation-vergence conflict?&/a&》说到的三大视觉区域。)&br&&img src=&/3de7ca2ae77cf4ceef1df9_b.png& data-rawwidth=&700& data-rawheight=&230& class=&origin_image zh-lightbox-thumb& width=&700& data-original=&/3de7ca2ae77cf4ceef1df9_r.png&&&br&眼睛注视着一个不动的物体叫fixation ,而眼睛跟随这一个运动的物体则叫&b&&i&&u&平滑跟随(smooth pursuit)&/u&&/i&&/b&,你感觉不到画面的抖动,是因为视觉系统的防抖功能。&br&(事实上,fixation这个词我们常在言情小说中看见,就是当你路过一群人,你眼睛自主扫视,然后发现了ta,不由自主地直视着ta,fixation就是迷恋地看着ta,因为对ta感兴趣和痴迷。)&br&下图是FOVE的眼动交互界面,在人机交互领域被称为&b&&i&&u&基于凝视的界面(Gaze-based interfaces)&/u&&/i&&/b&。&br&&img src=&/95f4e879f37d009dc8c400_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/95f4e879f37d009dc8c400_r.png&&比如你扫视场景200ms,然后注视在地球上350ms,地球就变大(高亮状态?)。&br&&img src=&/9db9b6a27edce_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/9db9b6a27edce_r.png&&&img src=&/0a3f2de57c4acc6c69dbd2_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/0a3f2de57c4acc6c69dbd2_r.png&&&br&视觉中心继续注视则触发『打开』。&br&&img src=&/5795ecc73fc_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/5795ecc73fc_r.png&&下一代很可能会有&b&&i&&u&瞳孔放大(pupil dilation)&/u&&/i&&/b&和&b&&i&&u&眨眼(blinks)&/u&&/i&&/b&等更有趣的交互输入方式。&br&瞳孔放大(pupil dilation)&br&&img src=&/346db7cf19_b.png& data-rawwidth=&1704& data-rawheight=&2272& class=&origin_image zh-lightbox-thumb& width=&1704& data-original=&/346db7cf19_r.png&&眨眼(blinks)&br&&img src=&/5eee5cad90842bbe94c168a9_b.png& data-rawwidth=&1280& data-rawheight=&720& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&/5eee5cad90842bbe94c168a9_r.png&&
我们都知道目前VR的主要交互式头部追踪,而眼动则算得上在头部追踪的一大提升,你眼睛看的地方则表示了你的认知意图(cognitive intent)。 如下图,眼睛作为普通的视觉输入器官,如果只看到视觉信息则很被动。但,当眼睛能够输入并及时得到视觉反馈时,便…
已有帐号?
无法登录?
社交帐号登录怎么让windows自动执行exe文件_百度知道这些天在做眼动实验,分享一些小经验吧,我们这次实验的时间为5天,现在是第二天,我们使用的是tobii眼动仪,这次的实验不算很顺利,今天机器又出了点小状况,还在解决中。
在整个实验的过程中,其实真正让用户做实验的时间很短,大部分的时间都花在前前后后的准备中,
我这次体验大概的流程是:1、设备的安装&&
2、软件的测试& 3、测试题目的设置&
4、流程的设置&&&
5、人员的预约& 6、数据分析
1、设备的安装
关于设备,tobii会有专门的工程师负责安装,他们有拉一个大箱子,里面是眼动仪,其实就是一个比较厚实的电脑显示器,在显示器的左下角和右下角有监控眼珠珠的东东,在显示器上方中央,有摄像头,可以把你在实验时的面部表情录下来,现在只要用户坐在显示器前操就OK,tobii会自动的记录你的眼动行为,以前一直以为会让带个眼镜或把脑袋固定住才可以进行测试,呵呵。
有了眼动仪,我们还需要一个电脑,来控制用户看到的内容,和记录存储用户的操作,需要装一个叫tobii
studio的软件,在这个软件里来设置我们让用户看到的内容。对这个电脑tobii要求最低为4G内存。建议8G最好。如果我们测试的是在线内容,还需要一个好的网络环境,网速太慢,用户在测试的时候大部分的时间都是在等待,会影响数据的准确性及为后期的分析带来难度。
2、软件的测试主要测试软件tobii
与眼动仪的衔接,可建立简单的测试任务,进行测试。如果是第一次使用tobii,需要模拟一个真实的场景进行测试,测试完后,可在tobii
studio上看一下采样率,80%以上的采样率,算是有效的。说明用户在测试的过程中双眼偏离屏幕的时间很短,当然也要根据实际情况来定,也许中间有出现打断、干扰用户的情况,例如:和其它人说话,接电话等(这两天有一个同学三个测试的采样率都在90%以上,他叫顾程,表扬一下他。哈哈。)也可以回放刚才测试的的眼动轨迹,快速导出轨迹图和热区图等。
走一下这个完整的流程,你会更明确在接下来的测试题目如何设置。当你看到结果呈现的时候,你会更加明确你的问题该如何设置。
3、测试题目的设置
对于测试题目,需要提前录入至tobii studio内,无操作难度。
描述一个简单的测试流程:被测试用户坐在眼动仪前,一切准备就绪,幕布上会显示“请登录你的人人帐号,浏览你的新鲜事,2分钟。。。如果对该题目充分理解,请点击鼠标左键,开始任务”,用户点击鼠标左键,这时候会弹出人人网首页,用户进行登录,开始任务,2分钟后窗口会自动关闭,弹出下一个任务的提示......依此类推。
建议任务不要过多,如有10个任务,可分三次做。也可以随时监控采样率,如果采样率低也可及时调整等。
在题目的录入过程中,尽量用少量的文字,把要用户操作的东西描述清楚,在整个过程中尽量避免用户出现困惑或不知道做什么的情况,可提醒用户有声思维,尽量不要告诉用户如何执行任务。
如果测试的题目较多,尽量每天进行一个总结,并对题目进行优化调整。
个人感觉tobii对于广告图片、静止网页的测试效果是最好、最快捷的,对于个性化的网站,如每个人需要登录,登录后看到的内容都不一样的话,这样的测试后其的工作量非常大,你需要对每个人进行分析,然后把每个人的分析结果再总结。
4、流程的设置
机器装好了,题目也都设置好了,当用户来的时候,我们该怎么办?直接让用户测?如果在测的过程中用户不了解题目怎么办?如果在最后的分析中,有疑惑想了解当时的情况怎么办?等等
我们是这么做的:我们约来的用户都是使用过我们产品的人,分为活跃和非活跃用户两种,当用户来的时候,我们会和用户简单的聊一下,让他填一些基本信息,并问他一些测试题目中提到的功能,或让他做一些类似的题目,以保证在测试时用户能真正的了解题目并顺利的进行。
在用户测试完之后,我们会对用户做一个简单的访问,询问刚才在测试的过程中为什么盯着一张图看了那久等,一些较明显的差别,因为这些答案会让我们在最后的分析更客观。也会避免以偏概全的问题出现。
5、人员预约
约用户,我们这次的实验,每个用户真正测试的时间为20多分钟,加上前后的访问等时间,每个人要一个小时,所以我们在约用户的时候,每个用户的间隔为一个小时。
爽约是最常见的情况,如果一个下午爽约两个人,两个小时就过去了,所以要给用户讲清楚,如果不来的话,最好提前两个小时通知,以便我们重新预约其它用户。最好的方法是走进用户,我们这次的实验主要是针对学生,我们走进校园,离学生更近,对于爽约,也可以快速找到替补用户。
6、数据分析
暂略,等实验结束可总结分析
我会随时对该博文进行补充,现在实验还在进行中,暂时就总结这么多。
想交流的朋友可随时留言,相互交流学习。
夜深了,娱乐一下,休息
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 上眼皮凹进去 的文章

 

随机推荐