面部动作编码系统 facs是什么意思

论文发表、论文指导
周一至周五
9:00&22:00
人脸面部表情自动生成系统
2013年第4期目录
&&&&&&本期共收录文章20篇
  摘要:详细介绍开发一个人脸面部表情自动生成系统所用到的相关技术,包括人脸三维建模、面部表情合成、系统用户界面实现等技术。系统开发的目的是建立一个具有真实感和实用性的三维人脸面部表情自动生成系统,其中,三维人脸建模技术包括3DMAX使用关键技术以及人脸特征提取技术,基于人脸建模的表情生成技术主要介绍通过肌肉运动来描述表情的技术,系统界面的设计采用MFC技术。对各技术全面而系统的介绍,将为人脸面部表情自动生成系统的开发与实现提供一个有效途径,为系统的应用者提供便利。 中国论文网 /8/view-4176041.htm  关键词:面部表情;三维建模;表情合成   中图分类号:TP391 文献标识码:A 文章编号:(8-03   Research and Development of the Facial Expression Automatically Generated System   ZHANG Li-li, LI Ling-hua   (College of Computer Science and Engineering, Dalian Nationalities University, Dalian 116600, China)   Abstract: The techniques used in developing a human facial expression generation system are introduced in detail, which include the techniques of 3D face modeling, facial expression synthesis, system user interface implement and etc.The system was developed to create a realistic and practical 3-D automatic facial expression generation system. Wherein, the technology of 3D face modeling includes the key techniques of using 3DMAX and the techniques of the feature extraction of facial. The technology of facial expression generation based on human face modeling is mainly introduced by the techniques used to describe the expression by the movements of the muscles.The design of the system interface used the MFC technology. It will provide a effective way for the development and implement of the facial expression automatic generation systems and facilities for the systems’ users by the comprehensive and systematic introduction of all the techniques used in the systems.   Key words: facial expression; 3-D modeling; expressions synthesis   本文主要工作是开发应用程序用户界面,输出人脸视频图像,对人脸的表情信息进行特征提取分析,按照人的认识和思维方式加以归类和理解,利用人类所具有的情感信息方面的先验知识使计算机进行联想、思考及推理,进而从人脸信息中分析理解人的情绪,实现六种基本人脸表情动作的自动生成,包括:快乐、惊奇、愤怒、恐惧、厌恶、悲伤等。该系统实现的关键在于建立一个人类的情绪模型,并把它们同人脸面部特征及表情的变化联系起来。项目基于心理学家对人脸解剖结构的深入分析所提出的人脸动作编码系统,其中包含46个基本人脸动作单元,结合各个独立的动作单元能够产生大量不同的脸部表情。   1 人脸三维建模   采用3DMAX三维建模工具建立人脸模型,在VC++条件下使用OpenGL编程完成了3DMAX模型的读取与重现,再用OpenGL对其进行控制。对于三维建模工具数据量较大的情况,采用细节层次(Level Of Details)算法进行简化,删除不必要的边、线、面[1]。   1.1 3DMAX数据文件的存储格式与读取   3DMAX 默认的数据文件是*.max文件[2]。*.max文件结构复杂,数据量庞大,不仅包括模型网格结构的点和面的信息,还包括模型的颜色等,读取比较困难。比较简单直观的文件存储格式是*.ASC。   1.2 在OpenGL中读取3DMAX模型   在OpenGL 中建立自己的数据结构存储数据,从模型中读取数据将其存储到OpenGL的程序中,建立起OpenGL的显示列表[3]。   1.3 关于简化网格算法   通过1.2得到的模型数据量是非常大的,不适合用作标准模型。要将这一模型进行简化,去除一些多余的点、边、面,以简化这一模型的网格数量。这里使用层次细节(Level Of Details,缩写为LOD)简化技术[4]。这一技术通过动态地确定阀值来选取不同精度的LOD模型,降低场景的复杂度,以求得更合适的图像质量。   1.4 人脸特征的提取   特征可被视为由数据、规则方法和关系三类属性描述的面向几何的物体,特征参数化的关键是特征及其相关尺寸的变量化描述[5-7]。在具体特征分类的基础上,确定结构特征的特征点,特征点的相互位置关系形成造型特征中的特征尺寸。修改特征尺寸的同时,对结构特征的其它点的位置和局部几何形状也进行了改变。根据人体头部的器官组成和外形特点,从建模的方便出发,将头特征分类为结构特征和造型特征。结构特征包含眼、鼻、嘴和耳;相应的造型特征有头高、头围、眼宽、眼高、两眼距、鼻宽、鼻高、鼻长、嘴宽、上下嘴唇厚、耳长、耳宽、耳厚等,头特征分类。我们在正面和侧面图像中定义了45个特征点来表征人脸的形状。手工设置特征点,然后进行参数化,得到了标准化的人脸模型。   2 面部表情合成   采用MPEG-4的参数变化进行面部表情的合成,面部表情的分析与合成的研究主要集中于基本的情感,包括悲伤、愤怒、喜悦、恐惧、厌恶和惊奇。MPEG-4标准表示了一种关于面部表情建模和表达潜在的情绪的方法。利用在MPEG-4框架里以面部动画为目的的面部动画参数是与运动单元(AUS)密切相关的[8,9]。运动单元包括核心的面部动作编码系统(FACS)[10-12]。   2.1 通过特定的FAPs描述基本表情   为了做到这一点,我们对面部肌肉运动进行翻译——通过肌肉运动来描述表情——FAPs,并为每个基本表情创建一个FAPs词汇[13]。为描述基本表情所需的FAPs还通过分析基本数据集进行实验验证。为了与真实的表情序列进行比较,我们定义了特定功能点对应的面部表情形式的FAPs。选定的FAPs可以通过实时图像或视频序列自动检测。派生模型也可以作为表情分析和表情综合学科之间的桥梁。   在一般情况下,面部表情和情绪通过一套测量和转换加以描述。测量和转换可以考虑基于MPEG-4标准。在这种方式中,我们可以描述一个人的解剖面,基本上是通过FAPS以及动画参数,组独特的标记,消除指定的需要底层的几何拓扑结构[8]。这些符号则可以被映射到自动检测的测量和对视频序列的运动迹象,因而通过人工合成近似真实的表情。   基本的面部表情和潜在的情绪,通过FAPs描述有以下几个目的:   1)提供合成序列的兼容性,创建与使用建议的方法,符合MPEG-4标准;   2)基本的表情很少发生,大多数情况下,情绪通过特别FAPs直接相关的几个离散五官的变化加以表示。此外,不同的FAPs可以被用在人机交互的多种语言环境中,即通过面部表情进行交互。   3)FAPs不符合具体型号或拓扑结构,合成表情可以由不同的动画模型或字符加以描述。   基本表情建模时,应解决两个基本问题:   1)估计形成该表情的FAPs;   2)定义FAP的强度。   面部动作编码系统(FACS)很大程度上影响表情分析的研究。利用面部解剖学的知识,FACS是一个试图区分视觉分辨的面部动作的系统。FACS使用运动单元(AU)为计量单位。AU能够结合两块肌肉运动或反向的方式工作,也就是分成几个肌肉的运动。   2.2 所涉及的FAPs在每个模型中表达的估计范围的表情   这是通过分析实时图像和视频序列得以实现的。   情感分析和综合系统中的一个重要问题是关于面部表情形成的FAPs变化范围[8]。从合成的角度来看,关于FAP的范围定义的研究已经展开。然而,所提出的变化范围是相当松散的,不能用于分析。为了给关于FAP的的实时视频序列一个特定的变化范围,我们分析了2个著名的数据集——埃克曼(静态)的以及MediaLab(动态)的数据集。这两个数据集套设置了用于形成极端情况下的表情,而不是通常的情况。然而,它们可用于设置特定表情的FAPs。然而,为了实现这一目标,通过面部运动点的FAPs建模是必需的。实时图像和视频序列的FAP变化范围的分析主要用于两个目的:   1)核实并定义每个基本表情的词汇;   2)为基本表情定义配置文件。   2.3 中级表情模型   这是通过结合加以实现的,在一个以规则为基础的系统和一个激活参数与基本表情描述的FAPs框架。   在本节中我们提出一种创建中级表情配置的方法,用于描述相应情绪的视觉部分。由计算机科学家和工程师进行的处理除了基本情绪外的其他情绪的研究渗透到了其他的学科。心理学家研究了更为广泛的情绪集合,但对于计算机图形学和机器视觉领域只有非常少结论可供借鉴。其中Whissel的一项研究[8]中提到,情绪好比是空间中具有一定规模的点,其中最接近的有两个值:激活和程度。激活是与术语相关的兴奋程度。如平静为中指示的中间点,惊讶代表高度激活,害羞代表低度激活。程度是与术语相关的愉悦程度,例如羞怯的“动机”列代表负向,而高兴代表正向。从实际的角度来看,似乎程度要表达的主题和估计得到的情感能够一致是件很棘手的事。另一方面激活与面部肌肉的运动相关,并可以基于面部特征很容易估计到。   为创建中级情绪配置我们要考虑两种情况:   1)在自然界中,情绪与其中一个原型类似,例如,他们可能会有不同肌肉强度的动作;   2)不能被视为与任何原型的情绪。   在这两种情况下,我们按照以下步骤进行:   1)利用激活参数或Plutchik的角度测量作为推理有关的几个情绪的面部动作的强度的知识。这方面的知识与基本表情配置相结合,通过基于规则的系统,创建中级情绪配置。   2)动画绘制配置以检测所要求的情绪与视觉的相似性是否合适。   3 程序用户界面   采用MFC技术设计一个包含悲伤、愤怒、喜悦、恐惧、厌恶和惊奇六种表情的按钮以及一个表情显示框的界面。我们采用GUI的设计模式,把表情变化的代码对应转换成C++形式,并嵌入在MFC中,在对应的按钮按下时候能产生相应的消息响应。   3.1 界面设计   首先建立一个MFC应用程序的工程,利用插件画出基本的界面图形,包含悲伤、愤怒、喜悦、恐惧、厌恶和惊奇六种表情的按钮以及一个表情显示框并设置相应的属性[14-15]。   3.2 消息及消息映射   Windows应用程序中的消息主要有三种类型。   1)窗口消息(Windows Message)。这类消息主要是指由WM_开头的除WM_ COMMAND之外的消息,例如WM_CREATE(窗口对象创建时产生)、WM_DESTROY(窗口对象清除前发生)、WM_PAINT(窗口更新时产生绘制消息)等,一般由窗口类和视图类对象来处理。   2)控件的通知消息(Control notifications)。当控件的状态发生改变(例如,用户在控件中进行输入)时,控件就会向其父窗口发送WM_COMMAND通知消息。应用程序框架处理控件消息的方法和窗口消息相同,但按钮的BN_CLICKED通知消息除外,它的处理方法与命令消息相同。   3)命令消息(Command message)。命令消息主要包括由用户交互对象(菜单、工具条的按钮、快捷键等)发送的WM_COMMAND通知消息。   命令消息的处理方式与其他两种消息不同,它能够被多种对象接收和处理,这些对象包括文档类、文档模板类、应用程序本身以及窗口和视类等;而窗口消息和控件的通知消息是由窗口对象接收并处理的,这里的窗口对象是指从窗口类CWnd中派生的类的对象,它包括CFrameWnd、CMDIFrameWnd、CMDIChildWnd、CView、CDialog以及从这些派生类对象等。   4 结束语   人脸表情的研究是一项艰辛而漫长的工作,但正因为这个,该工作的过程中才充满了欢乐。随着相关技术的不断发展和实际需求的日益增长,人脸研究相关技术越来越受到人们的关注和重视。对这一领域的深入研究不仅能创造出巨大的市场价值,还将有力地推动计算机视觉、模式识别、认知行为科学等相关学科的发展。   参考文献:   [1] Gourret J P,Khamlichi J.A model forcompression and classification of face data structures[J].Computer& Graphics,):863-879.   [2] 李勤,鲁宏伟.OpenGL在三维人脸造型中的应用[J].武汉工业学院学报,):44-48.   [3] 徐成华,王蕴红,谭铁牛.三维人脸建模与应用[J].中国图像图形学报,):893-903.   [4] 张宛方, 苏鸿根. 3D模型L0D算法的研究及其OpenGL实现[J].计算机工程与设计, 2004, 25(10): , 1796.   [5] Fyffe G,Hawkins T,Watts C,prehensive facial performance capture[J].Computer Graphics Forum,):425-434.   [6] Ghosh A,Fyffe G,Tunwattanapong B,et al. Multiview face capture using polarized spherical gradient illumination[C]. Proceedings of ACM SIGGRAPH Asia,):1-10.   [7] Wilson C A,Alexander O,Tunwattanapong B,et al. Facial cartography:interactive scan correspondence[C].Proceedings of the 2011 ACM SIGGRAPH/Eurographics Symposium on Computer Animation,4.   [8] Raouzaiou A, Tsapatsoulis N, Karpouzis K, et al. Parameterized facial expression synthesis based on MPEG-4 [J]. EURASIP Journal on Applied Signal Processing, 2002, 10: .   [9] Lucey P,Cohn J F,Kanade T,et al.The extended Cohn-Kanade dataset:CK+.A complete dataset for action unit and emotion-specified expression[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshop,.   [10] Cohn J F,Ambadar Z,Ekman P.Observer-based measurement of facial expression with the Facial Action Coding System[C]//Coan JA, Allen JB.The handbook of emotion elicitation and assessment. New York:Oxford University Press, 1.   [11] Krumhuber E G, Tamarit L,Roesch E B, et al. FACSGen 2.0 animation software: Generating three-dimensional FACS-valid facial expressions for emotion research [J]. Emotion, 2012, 12(2): 351-363.   [12] Amini R,Yasavur U,Lisetti C.HapFACS 1.0:Software/API for generating FACS-based facial expressions[C].Proceedings of the ACM 3rd International Symposium on Facial Analysis and Animation,2012.   [13] 孙延鹏,傅蓉,孙海伦.基于数据驱动的人脸动画合成技术的研究与发展[J].计算机工程与科学,):48-49,84.   [14] 王玉顺,肖俊,庄越挺,等.基于运动传播和Isomap分析的三维人脸动画编辑与合成[J].计算机辅助设计与图形学学报, 2008, 20(2):.   [15] 杜志军,王阳生.单张照片输入的人脸动画系统[J]. 计算机辅助设计与图形学学报,):.
转载请注明来源。原文地址:
【xzbu】郑重声明:本网站资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有,如有不愿意被转载的情况,请通知我们删除已转载的信息。
xzbu发布此信息目的在于传播更多信息,与本网站立场无关。xzbu不保证该信息(包括但不限于文字、数据及图表)准确性、真实性、完整性等。基于面部动作单元组合特征的表情识别_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
基于面部动作单元组合特征的表情识别
上传于||文档简介
&&基​于​面​部​动​作​单​元​组​合​特​征​的​表​情​识​别
阅读已结束,如果下载本文需要使用0下载券
想免费下载更多文档?
定制HR最喜欢的简历
下载文档到电脑,查找使用更方便
还剩3页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢求FACS(面部运动编码系统)两本手册的中文版请发到邮箱:或者提供可用的下载链接也可
人脸工程学的研究内容主要包括人脸识别、表情识别和人脸合成三个部分.本手册分别介绍了人脸识别、表情识别和人脸合成研究中用到的相关理论和算法,最后总结作者所在课题组研究成果的基础上,给出了人脸识别、表情识别和人脸合成系统的设计与实现流程实例.这是摘要,全文已经发送邮箱,请查收.
为您推荐:
其他类似问题
扫描下载二维码> 问题详情
面部活动编码系统(FACS)的提出者是A.艾克曼B.伊扎德C.艾宾浩斯D.达
悬赏:0&答案豆
提问人:匿名网友
发布时间:
面部活动编码系统(FACS)的提出者是A.艾克曼B.伊扎德C.艾宾浩斯D.达尔文请帮忙给出正确答案和分析,谢谢!
网友回答(共1条)
匿名网友&&&&lv1&&&&提问收益:0.00&答案豆
您可能感兴趣的试题
1人类的迷宫学习是人类动作学习的一部分,该类研究中一般需要被试利用A.视觉和动觉信息B.视觉和触觉信息C.听觉和触觉信息D.动觉和触觉信息2在阅读理解的眼动实验中,“阅读者按阅读的进程,自然地把注视点由读完的一行的末端,移到下一行的始端的眼运动过程。”这一眼动模式是指A.注视B.跳动C.回视D.回归
我有更好的答案
论文写作技巧
相关考试课程
请先输入下方的验证码查看最佳答案
图形验证:
验证码提交中……【转】“脸部动作编码系统”(FACS)
只要知道一个人的脸在正常状态下是什么样子,然后通过对方的表情变化,就能够像读一本翻开的书那样了解对方。72岁的美国心理学教授保罗·艾克曼用了40年的时间研究欺骗和伪装,在上个世纪60年代,他在两个互相隔离的原始部落研究他们动作和手势,最终发现了人类共通的特性,并发布了“脸部动作编码系统”(FACS):他在人的脸上发现43种动作单元,每一种都由一块或者好几块肌肉的运动构成,各种动作单元之间可以自由组合,也就是说,人脸上可能有1万种表情,其中的3000种具有一个情感意义。
  72岁的美国心理学教授保罗·艾克曼最近一直在训练负责安全事务的官员,教会他们从飞机乘客的脸上认出其中居心不良的人。
  通过审视人们的脸庞,艾克曼的发明应该可以川流不息的人群中发现恐怖分子。
  观察人脸发现嫌犯
  按照艾克曼的说法,只要他知道一个人的脸在正常状态下是什么样子,然后通过对方的表情变化,就能够像读一本翻开的书那样了解对方。
  艾克曼告诉美国国土安全部门的官员,他用了40年的时间研究欺骗和伪装。艾克曼当时就已经非常熟悉,一个人说谎时,看起来会是什么样子。“知道这些以后,再用来发现恐怖分子已经足够了,”他说。
  艾克曼的试验果然有了结果。从去年开始,掌握“说谎技巧”的美国警察就开始在机场值守,他们在茫茫人流中,从一张张脸上寻找破绽。这些警察都接受过艾克曼发明的技术的培训,这种技术的名称是“用观察技术查看乘客”,简称“发现”(Spot)。
  他能做出三千种表情
  早在上个世纪60年代,艾克曼就在巴布亚新几内亚阴冷潮湿的森林里开始了研究。
  当时艾克曼作为一名年轻的科学家想要测试看看,巴布亚新几内亚的两个互相隔离的原始人部落之间是否如同西方文化中的人,在动作和手势方面有相同的规律。
  艾克曼的生命经常处于原始部落人长矛的威胁中。他最终发现,人类的动作和手势事实上具有共通的特性。
  通过艰苦的努力,艾克曼绘制出一张人类情感表现形式的“地图”:他在人的脸上发现43种动作单元,每一种都由一块或者好几块肌肉的运动构成。各种动作单元之间可以自由组合,也就是说,人脸上可能有1万种表情,其中的3000种具有一个情感意义。
  艾克曼可以按照要求演示3000种表情中的很多种。他以前专门在镜子跟前练习这个技巧。每当“挤”不出某一种表情的时候,艾克曼就用一个电极“帮助”自己脸上的肌肉做出那个表情。  
“那真是一个痛苦的过程,今天我再也不想那样做了,”艾克曼回忆说。痛苦换来的回报是一个“脸部动作编码系统”(FACS)。这个系统直到现在还是研究人类动作和手势的有效参考工具。
  可以避免种族歧视
  这个检测项目在美国饱受争议。民权人士认为这侵犯了人的隐私,为种族主义打开了方便之门;此外,警察在运用这门技术的过程中,其可信赖的程度也不能证明。
  批评者已经看见他们的担心得到了证实。2006年夏天,尽管使用“发现”技术的安保人员接受过反种族歧视的培训,但是在面对有色人种时,这些安保人员还是会由于自以为的“可疑脸部表情”而盘问他们。
  虽然还没有从大量的乘客中找到过一个恐怖分子,但是艾克曼从“发现”技术的实践过程中找出第一批例子回应反对者。使用“发现”技术的安保人员在大多数时候都不会犯错:总是有被通缉的罪犯、毒品贩子或者非法入境者落入他们的法网。
  曾经分析“9·11”恐怖分子
  艾克曼还曾经想从含有“9·11”恐怖袭击实施者画面的录像中分析恐怖分子的脸部。不过由于这些录像非常少,而且画面也不清晰,所以他没办法猜测,能不能从“9·11”恐怖袭击者的脸部表情上看出他们的炸机阴谋。
  有一名美国机场安全官员总是说,“9·11”当天有一名恐怖分子的行为在他看来觉得特别显眼。
  艾克曼对此表示:“可是他并不能准确地肯定,到底是恐怖分子的身上什么东西使他觉得显眼。”
  “发现”技术项目并不是艾克曼和美国政府机构的第一次合作。他已经训练了数十个警察机构的人员。艾克曼解释说:“我要让不法之徒受到惩罚。”
  脸部表情难以压抑
  “脸是一个人心灵的窗户,”艾克曼说。研究分析脸部表情的原理也是可能的,就好像打高尔夫球的时候可以分析球的运动路线。艾克曼说:“脸是诚实的,而且经常把人的心情状况表现出来。人不能有意识地压抑自己的脸部表情。”
  脸几乎在一瞬间就能反映一个人的心情变化,而且经常是稍稍一瞥就能看出。此外,还有一种“微表情”也能把一个人的真实精神状态体现出来。
  艾克曼把所有的办公桌都拼成U字形,在每张办公桌上放一台显示器。每台显示器用非常慢的速度播放影片。
  艾克曼收集了大量的影片,形成自己的档案库:既有名流显贵的也有平民百姓的。所有这些影片是艾克曼长期以来从电视新闻或者法庭审理直播节目中录下来的。
  研究克林顿和拉丹的脸
  艾克曼的影片档案里,可以发现美国前总统克林顿的脸。因为克林顿总是把自己的脸抽紧,好像一个坏脾气的男孩在乞求宽恕。还有本·拉丹。艾克曼受美国情报机构的委托,已经研究了本·拉丹好几年。他的诊断是:一开始本·拉丹在画面上表现出仇恨和坚定,随后却露出了真实和明显的愤怒。
  接下来艾克曼展示一个年轻女子的画面,她正在法庭上作为证人提供证词笔录。“您看!”艾克曼喊道,“现在她做到了。”艾克曼回放录像带。这下才看清楚,那名女子的鼻翼上起了皱纹,而且她眉毛的内侧往上翻。“这是一种厌恶和拒绝的表情,”艾克曼说。
  艾克曼找来演员,把所有这些人脸部的隐藏表情模仿一遍,然后制成一张练习用光盘。艾克曼说:“微软公司为它的经理们订购了40套这样的光盘。”另外,美国各机场的安全官员也根据光盘提供的课程进行训练。艾克曼专门为这些安全官员制订了一系列额外的眼睛特征。不过他不愿意透露这些东西:“我们当然必须考虑到,潜在的恐怖分子可能对此进行有针对性的训练,免得被我们认出来。”
  “读脸术”也有尴尬
  艾克曼谈起不久之前一次和国土安全官员们在波士顿机场的经历。
  当时有一个戴眼镜穿褐色夹克的男人站在那里,他两眼看着地上,开始过安检。“他一个接一个地翻开身上的口袋,”艾克曼说。
  然后决定性的时刻来到了,这一时刻不足五分之一秒长:就在几乎没有人注意的时候,该名男子的脸颊抬起,眉毛的内侧也升高,不过他的嘴角却下降了。
  “这名男子绝望了,”艾克曼在那个时候向站在边上的机场安全官员耳语道。一个警察把那名男子叫道一边,问他此行的目的地和目的。
  “最后我们得知,那名男子根本一点恶意也没有,”艾克曼说,“他那时正在赶往兄弟葬礼的路上,他的兄弟死得非常突然。”
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 facs是什么意思 的文章

 

随机推荐