用C++图像处理,通过去噪如何才能够把一张图片中的几个细胞的细胞核是细胞器吗提取出来,谢谢!

日常秀Mathematica系列,虽然我看见标签上写着Matlab...&br&&img src=&/d0cbfbcd7ad435eb19cd_b.png& data-rawwidth=&571& data-rawheight=&864& class=&origin_image zh-lightbox-thumb& width=&571& data-original=&/d0cbfbcd7ad435eb19cd_r.png&&再运行一次&br&&img src=&/2834349afc6fa9f7d5bc81095edb7fa6_b.png& data-rawwidth=&360& data-rawheight=&393& class=&content_image& width=&360&&&br&&br&&div class=&highlight&&&pre&&code class=&language-text&&\[ScriptCapitalR] = RandomReal[{0, 1}, {50, 2}];
chm = ConvexHullMesh[\[ScriptCapitalR]];
lines = MeshPrimitives[chm, &Line&];
yaxis = Line[{{0, 0}, {0, 1}}];
tl = Table[Last[FindGeometricTransform[yaxis, l]], {l, lines}];
bounds = Table[RegionBounds[TransformedRegion[chm, t]], {t, tl}];
bboxes = Table[Rectangle @@ Transpose[b], {b, bounds}];
areas = Area /@
index = Position[areas, Min[areas], 1][[1, 1]];
tf = Last[FindGeometricTransform[lines[[index]], yaxis]];
g = {EdgeForm[LightRed], Lighter[Yellow, 0.5],
GeometricTransformation[bboxes[[index]], tf]};
Show[Graphics[g], chm, Graphics[Point[\[ScriptCapitalR]]]]
Area /@ {chm, g // Last // First}
&/code&&/pre&&/div&
日常秀Mathematica系列,虽然我看见标签上写着Matlab... 再运行一次 \[ScriptCapitalR] = RandomReal[{0, 1}, {50, 2}];
chm = ConvexHullMesh[\[ScriptCapitalR]];
lines = MeshPrimitives[chm, "Line"];
yaxis = Line[{{0, 0}, {0, 1}}];
tl = Table[Last[…
从空间域转化到频率域本身就是压缩。对于一个任意的函数,它的傅立叶级数表示&br&&img src=&///equation?tex=f%28x%29%3D%5Csum_%7Bn%3D-%5Cinfty%7D%5E%5Cinfty+%5Chat%7Bf%7D%28%5Cxi_n%29%5C+e%5E%7B2%5Cpi+i%5Cxi_n+x%7D%5CDelta%5Cxi& alt=&f(x)=\sum_{n=-\infty}^\infty \hat{f}(\xi_n)\ e^{2\pi i\xi_n x}\Delta\xi& eeimg=&1&&&br&往往有无穷多项。能否用右边较少的项来高精度的逼近这个函数&img src=&///equation?tex=f%28x%29& alt=&f(x)& eeimg=&1&&本身,关键在于&img src=&///equation?tex=%5Chat%7Bf%7D%28%5Cxi_n%29& alt=&\hat{f}(\xi_n)& eeimg=&1&&的分布(&img src=&///equation?tex=%5Cxi_n& alt=&\xi_n& eeimg=&1&&被称作频率)。&br&&br&我们平时接触的大部分图像是一类非常特殊的函数,因为他们局部往往具有一定的光滑性(smoothness),一张图就是由这一个个光滑的部分组成的,他们的交界处被称为轮廓。这类函数的傅立叶级数展开中当&img src=&///equation?tex=n& alt=&n& eeimg=&1&&比较大时&img src=&///equation?tex=+%5Chat%7Bf%7D%28%5Cxi_n%29& alt=& \hat{f}(\xi_n)& eeimg=&1&&基本上都是0,所以能用较少的项来逼近。&br&&br&当然,也可以根据这个原理来生成反例。比如在图片上加白噪音:&br&&img src=&/d06ae6d8d_b.jpg& data-rawwidth=&361& data-rawheight=&253& class=&content_image& width=&361&&&br&那么此时用频率域来表示就非常“糟糕”了。如果只用低频的项,得到的是比较模糊的图像,弥漫整张图片的一闪一闪亮晶晶的小点点信息将会丧失。&br&&br&----------------------------------------------------------------------------------------&br&补充:很多答案提到除了傅立叶变换,也可以用其它的一些比如DCT,小波等其它的变换。每一种变换都对应选定一组basis(基),看函数在这组基上的展开。任何函数都可以用其所在空间中的一组完备基来逼近(c.f. Stone–Weierstrass theorem),压缩的效率就看在哪组基上非零项(或接近0的项)比较少。&br&&br&从另外一个角度来看,其实没必要所有的图像都用同一组基,为什么不为每个图像个性化的选择一组最高效的基呢?这组最高效的基其实是可以计算的——通过Singular Value Decomposition(奇异值分解)。所以SVD也可以用来压缩图像。但它的缺点也很明显——你还要存储这组基啊。。。如果选用常用的基(傅立叶,小波等),只需要存储系数就行了。
从空间域转化到频率域本身就是压缩。对于一个任意的函数,它的傅立叶级数表示 f(x)=\sum_{n=-\infty}^\infty \hat{f}(\xi_n)\ e^{2\pi i\xi_n x}\Delta\xi 往往有无穷多项。能否用右边较少的项来高精度的逼近这个函数f(x)本身,关键在于\hat{f}(\xi_n)的分…
谢邀。留坑,我这边目前网速不好,题主把原片给我发一下。nantianyun.&br&&br&&br&============================ 更新 ==============================&br&先上效果图:&br&&img src=&/dbf4be0c4e609d94cfbd228b8d2c7520_b.jpg& data-rawwidth=&800& data-rawheight=&1201& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/dbf4be0c4e609d94cfbd228b8d2c7520_r.jpg&&&br&&br&&br&原理解析:由于婚纱是白色的,其他背景颜色物颜色较深,因此考虑利用&b&滤色混合模式&/b&。&br&&br&1、给图片加一个蓝色的背景,便于观察。然后用钢笔工具抠出完全不透明的部分。&br&&br&&img src=&/bfaca8c656d9cf7e0cf9b_b.jpg& data-rawwidth=&234& data-rawheight=&240& class=&content_image& width=&234&&&br&&img src=&/dcbcc753cd1440eaf9aa190_b.jpg& data-rawwidth=&298& data-rawheight=&450& class=&content_image& width=&298&&&br&&br&2、同样用钢笔工具抠出人物以及婚纱的部分。图层排列如下:&br&&img src=&/3ae8573f8ddb9012fcc93_b.jpg& data-rawwidth=&233& data-rawheight=&350& class=&content_image& width=&233&&&img src=&/2a0ce1979fdea95b9cb65_b.jpg& data-rawwidth=&298& data-rawheight=&450& class=&content_image& width=&298&&&br&&br&&br&3、将图层”含婚纱部分“得混合模式改为”滤色“&br&&img src=&/40f58f52996acc05c9ac233b2787d7ed_b.jpg& data-rawwidth=&532& data-rawheight=&450& class=&origin_image zh-lightbox-thumb& width=&532& data-original=&/40f58f52996acc05c9ac233b2787d7ed_r.jpg&&&br&&br&4、打开”完全不透明部分“图层的小眼睛,观察图中的不完美的地方,主要是一些黑边:&br&&img src=&/adb35e01dfa38b13fa7243_b.jpg& data-rawwidth=&631& data-rawheight=&599& class=&origin_image zh-lightbox-thumb& width=&631& data-original=&/adb35e01dfa38b13fa7243_r.jpg&&&br&5、给最上面的图层添加一个白色蒙版,用黑色柔性画笔耐心地涂呀涂呀~玩命地涂呀涂呀~~~&br&&br&&img src=&/502cccbcabbd_b.jpg& data-rawwidth=&642& data-rawheight=&597& class=&origin_image zh-lightbox-thumb& width=&642& data-original=&/502cccbcabbd_r.jpg&&&br&6、还是不完美,请仔细观察,有几个粉色的粉团:&br&&img src=&/6a0a9c54ebfceb9faa678_b.jpg& data-rawwidth=&804& data-rawheight=&460& class=&origin_image zh-lightbox-thumb& width=&804& data-original=&/6a0a9c54ebfceb9faa678_r.jpg&&&br&7、怎么办呢?尝试用修补工具搞搞:&br&&img src=&/e38feeae943_b.jpg& data-rawwidth=&209& data-rawheight=&104& class=&content_image& width=&209&&&br&大功告成!!!&br&&img src=&/dbf4be0c4e609d94cfbd228b8d2c7520_b.jpg& data-rawwidth=&800& data-rawheight=&1201& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/dbf4be0c4e609d94cfbd228b8d2c7520_r.jpg&&&br&&br&答主今天晚上一直在跟网速做斗争, 心好累~~╮(╯▽╰)╭&br&&br&&img src=&/a4e09b7f50abbe06f2ddc_b.jpg& data-rawwidth=&459& data-rawheight=&196& class=&origin_image zh-lightbox-thumb& width=&459& data-original=&/a4e09b7f50abbe06f2ddc_r.jpg&&
谢邀。留坑,我这边目前网速不好,题主把原片给我发一下。nantianyun. ============================ 更新 ============================== 先上效果图: 原理解析:由于婚纱是白色的,其他背景颜色物颜色较深,因此考虑利用滤色混合模式。 1、…
有多少人工就有多少智能
有多少人工就有多少智能
题主可能是说的是自动化系底下那个模式识别吧,要是计算机学院的可能不会考虑这个问题,现在的前景是,毕业进公司后,你会发现做算法工程师的人许多以前都是做模式识别与图像处理的,但是由于当前图像识别的识别率只能在特定场景下保证,所以现在图像识别的应用价值还不大,要想商业化我觉得必须再突破相关的技术瓶颈,要是读硕士的话我觉得方向不是很重要,反正出来都是码农或者算法工程师(算法玩的溜的人),要是想以后读博做科研,我觉得这个方向是极好的,可能未来十几年,CV都是研究的热点。
题主可能是说的是自动化系底下那个模式识别吧,要是计算机学院的可能不会考虑这个问题,现在的前景是,毕业进公司后,你会发现做算法工程师的人许多以前都是做模式识别与图像处理的,但是由于当前图像识别的识别率只能在特定场景下保证,所以现在图像识别的…
都挺重要。&br&1、图像采集。涉及到大量的数据存储、前处理、传输,对带宽要求很高。这一块如果没做好,一定程度上也会限制图像处理功能。除去一些简单算法可以实现实时处理图像数据流外,大部分图像处理算法需要大量的存储带宽作保障。&br&2、算法。之前做过FPGA的视频编码(MPEG-2)、视频预处理(反交错、缩放、双边滤波。。。),不同的算法,现在PCIE卡,不同的HDL代码实现,C语言不也是要照样重新搞嘛。。。还有,一般的图像处理都会涉及到大量的四则运算吧,如果需要同时搞多路,再要求实时性神马的,FPGA确实是个不错的选择。&br&======================================&br&&a data-hash=&a9a93d15b1ef61c3a4b85ff& href=&///people/a9a93d15b1ef61c3a4b85ff& class=&member_mention& data-hovercard=&p$b$a9a93d15b1ef61c3a4b85ff&&@bug moving&/a& 视频图像编码、处理这一块我也正在学习中,仅就目前知道的说说,希望能帮到你。。。&br&1、图像算法方面。冈萨雷斯的数字图像处理,很基础。对于了解图像处理的一些基本概念还是很有帮助的。&br&2、Design for Embedded Image Processing on FPGAs,自行google,其中有算法介绍,也有算法在FPGA中实现时的一些架构分析、设计实现方面的内容,还不错。&br&&br&至于工程案例,可以先找一个点,比如图像缩放?边缘检测啥的。。。这些算法都有开源代码,刚开始可以先理解下算法,然后可以写个C/C++程序验证下,再HDL实现,Modelsim仿真,上板调试、验证通过,Congratulations!&br&&br&PS:如果要在FPGA下搞图像算法实现,C环境的下算法验证,我觉得是不可少的。方便仿真、调试、定位问题、解决问题。。。
都挺重要。 1、图像采集。涉及到大量的数据存储、前处理、传输,对带宽要求很高。这一块如果没做好,一定程度上也会限制图像处理功能。除去一些简单算法可以实现实时处理图像数据流外,大部分图像处理算法需要大量的存储带宽作保障。 2、算法。之前做过FPGA…
图像降噪和图像去噪,听上去好像是一回事,就是image denoising吧。&br&图像滤波应该是Image filtering。&br&他们之间的关系,我试着总结如下:&br&1)降噪(denoising)有很多方法,其中部分,特别是比较传统的部分,可以很明显地归类于是通过滤波(filtering)来实现的,比如Wienner Filtering(维纳滤波,多谢&a href=&///people/9e93fc97b55ea82aedb2a46610cfb2ba& data-hash=&9e93fc97b55ea82aedb2a46610cfb2ba& class=&member_mention& data-hovercard=&p$b$9e93fc97b55ea82aedb2a46610cfb2ba&&@Dog Mad&/a&指正),小波滤波(Wavelet,就是一个滤波器组Filter bank)之类的。&br&但是由于传统的很多滤波方法,对于特定图像来说并没有最优的表达和适应,所以目前更多的adaptive的方法取得了更好的效果。参见我以前的关于傅里叶滤波不足的回答:&br&&a href=&/question//answer/& class=&internal&&傅里叶变换的不足有哪些?有哪些改进的方法? - Bihan Wen 的回答&/a&&br&&br&2)由于目前降噪技术(我只了解research方面的情况,在工业界很多并没有投入使用)的进步,很多非滤波的过程也参与进来,比如利用一些机器学习,优化,或者概率模型的方法,很多取得了更佳优异的表现。比如Adaptive Sparse Coding的方法(稀疏学习之类的,参见我以前对于稀疏表达的回答:&a href=&/question//answer/& class=&internal&&稀疏表达的意义在于?为什么稀疏表达得到广泛的应用? - Bihan Wen 的回答&/a&),还有基于Gaussian Mixture Model的降噪方法。&br&&br&3)Image Filtering不光可以应用于降噪,而可以应用于很多很多图像处理相关的应用。降噪是图像处理里面的图像恢复的一种问题。除此以外还有很多非恢复类应用,比如图像增强(参加我以前的回答:&a href=&/question//answer/& class=&internal&&图像增强与图像恢复有何异同? - Bihan Wen 的回答&/a&)。总体来说,图像降噪只是图像处理的一个应用而已。
图像降噪和图像去噪,听上去好像是一回事,就是image denoising吧。 图像滤波应该是Image filtering。 他们之间的关系,我试着总结如下: 1)降噪(denoising)有很多方法,其中部分,特别是比较传统的部分,可以很明显地归类于是通过滤波(filtering)来实…
很奇怪这个问题为何被加上图像识别的话题 。其实网盘一般是迫于审查压力,很少真的会花那么大精力用图像识别来做的。所以我推断是这个做法:&br&&br&1.首先要有巨量的H片的数据库,获取数据库的方式有:&br&&ul&&li&可以根据番号来找到资源,然后建立数据库&br&&/li&&li&用户举报,然后人工审查(&a data-hash=&805a9c112& href=&///people/805a9c112& class=&member_mention& data-editable=&true& data-title=&@Demon21carat& data-tip=&p$t$805a9c112& data-hovercard=&p$b$805a9c112&&@Demon21carat&/a& 的方案,这个成本最低,比较合理)&br&&/li&&li&
假设网警已经建立了这个数据库,并且愿意分享出来,各大网盘购买或者授权使用方式直接导入数据库。&br&&/li&&/ul&2.计算每个片的sha1(或MD5等)值,更新数据库&br&3.对网盘里的所有片计算下sha1值&br&4.如果sha1值在数据库中就是h的&br&&br&所以解决方法改变sha1值,比如用视频编辑器打开这个视频,然后随便加上一两帧 或者删掉开头或者结尾部分。
很奇怪这个问题为何被加上图像识别的话题 。其实网盘一般是迫于审查压力,很少真的会花那么大精力用图像识别来做的。所以我推断是这个做法: 1.首先要有巨量的H片的数据库,获取数据库的方式有: 可以根据番号来找到资源,然后建立数据库 用户举报,然后人工…
1. 将微软研究院在人工智能领域多年的积累,作为易用的服务开放出来,使这些研究成果能带来更切实的价值和广泛的影响,也有助于聚集Azure和微软开发者生态的人气;对于广大开发者,尤其是小团队甚至个人开发者而言,又多了个提升自己应用和服务“智能性”的选择,甚至很有能将会是个非常靠谱的选择,这总是令人兴奋的事。&br&2. 人脸、OCR等视觉的API,语音识别与合成的API,这些其实都有一些大大小小的公司在做了,谈不上有太多新鲜感,但是微软出品的质量应该还是有保障。简单地在语言识别与合成的在线demo上试了试中文,基本上维持了cortana的表现水准,国内在这个领域有业务的公司应该还是会有些压力吧。&br&3. 很值得一提的是名为LUIS的语言理解服务,为开发者提供了非常直观便捷、易于定制的语义分析服务,从定义模型、添加样本,到训练和主动学习,到部署API,简直行云流水般顺畅。目前这个服务还没有完全开放测试,需要申请邀请。我尝试提交申请后几个小时内就收到邀请确认,实际测试了一下,基本上和build上demo的体验一致,只不过目前似乎不支持中文的语义分析。虽然短时间内很难判断背后的技术到底达到什么高度、实际用在产品里有怎样的效率、存在哪些瓶颈,但是至少在服务形式的友好性上,令人欣喜!
1. 将微软研究院在人工智能领域多年的积累,作为易用的服务开放出来,使这些研究成果能带来更切实的价值和广泛的影响,也有助于聚集Azure和微软开发者生态的人气;对于广大开发者,尤其是小团队甚至个人开发者而言,又多了个提升自己应用和服务“智能性”的…
不是我的专业,但是应该很容易猜想到答案:&br&你所标示的地区是高空间分辨率的拖曳式声纳详细扫描过的地区,因而有比较细致的海床地形图。而其他地区是某种比较粗糙的方法大面积测绘的,空间分辨率较低。&br&&br&折返的痕迹是测量船走过的路径。从一个区块转移到另一个区块的路上,有一细条路径也被顺便测量了。&br&&br&这个说法很好验证,你把这些地区的放大看,应该是可以看到很多细节的,而旁边其他区域在同样的比例尺下应该是模糊一片。
不是我的专业,但是应该很容易猜想到答案: 你所标示的地区是高空间分辨率的拖曳式声纳详细扫描过的地区,因而有比较细致的海床地形图。而其他地区是某种比较粗糙的方法大面积测绘的,空间分辨率较低。 折返的痕迹是测量船走过的路径。从一个区块转移到另一…
1. 《learning opencv》,有中文版。用这个入门最快。&br&2. @陈冰 推荐的《机器学习实战》,简单,容易,清晰。&br&3. @&a href=&/people/zhou-yi-ran& class=&internal&&周弋然&/a& 推荐的 李航《统计学习方法》,如果想学点理论,将整本书推导一下。&br&&br&入门这三本就够了。其他的书都太累太难。PRML和CV广大无比,深不可测,且常常很无用。&br&&br&如果你年轻的话,还是不要混这行了,真的。干点别的有意思的事情赚钱吧。
1. 《learning opencv》,有中文版。用这个入门最快。 2. @陈冰 推荐的《机器学习实战》,简单,容易,清晰。 3. @ 推荐的 李航《统计学习方法》,如果想学点理论,将整本书推导一下。 入门这三本就够了。其他的书都太累太难。PRML和CV广大无比,深不…
先构造homograph matrix H, 然后对于目标图片中的每一点p(u,v), 都可以计算出这一点对应的源图片的位置p0 = inv(H)*p, 然后用原图片在p0处的颜色填到目标图片中的p点即可。&br&&br&所以关键是如何构造homograph matrix了。&br&参见这个作业提示:&a href=&///?target=http%3A//ezekiel.vancouver.wsu.edu/%7Ecs330/projects/homography/homography.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&ezekiel.vancouver.wsu.edu&/span&&span class=&invisible&&/~cs330/projects/homography/homography.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
先构造homograph matrix H, 然后对于目标图片中的每一点p(u,v), 都可以计算出这一点对应的源图片的位置p0 = inv(H)*p, 然后用原图片在p0处的颜色填到目标图片中的p点即可。 所以关键是如何构造homograph matrix了。 参见这个作业提示:
完成图像空间域到频率域的转换,类似于一维信号信号的傅里叶变换,二维傅里叶变换的坐标轴意义是频率,越靠近原点,频率越低,对应于图像中像素值变化速度比较慢的部分,一般是物体的主体、背景等。越远离原点,频率越高,对应于图像中像素值变化速度快的那部分,例如物体的边界。&br&你拿一张有意义的图像做傅立叶变换,得到的结果一般来说靠近原点周围比较亮,原理原点比较暗,也就是这张图像里低频部分份量多,高频的分量少,显然这符合我们的直观感受,一张图片当然是边缘部分少,大部分都是颜色相近/灰度相近的区域。&br&至于有什么功能,这个我可能说不全,只能举例来说。因为空间域很复杂很难理解的东西,在频域可能很简单很方便。比如滤波器设计,低通滤波器很简单就是在频谱里画个圈圈或者正方形或者别的玩意,圈圈里面是要保留的,圈圈外面都丢掉,再反变换回来,就相当于对图片做了低通滤波了&br&。&br&要设计一个空间滤波器,也可以在频域里设计好(因为这里直观啊),然后一个傅立叶反变换变换回去,对应的滤波器就是能完成这个操作的空间滤波器了。不然让你在空间域里赤手空拳给我弄一个能滤掉某频率的正弦波噪声的滤波器,恐怕你还真不好办呢。
完成图像空间域到频率域的转换,类似于一维信号信号的傅里叶变换,二维傅里叶变换的坐标轴意义是频率,越靠近原点,频率越低,对应于图像中像素值变化速度比较慢的部分,一般是物体的主体、背景等。越远离原点,频率越高,对应于图像中像素值变化速度快的那…
&blockquote&&p&目标:&/p&&p&短期:会瘦个脸,调个色,修走画面角落乱入的路人等。&/p&&p&中期:会修个头发,调个睫毛,挽救糟糕妆娘导致的糟糕造型。&/p&&p&长期:会P个蓝天白云夕阳晚霞搞个特效还很自然。&/p&&p&(请不要对我说其实下个美图秀秀就够了,我这么挑剔的人是忍不了的。)&/p&&br&&p&重点:&/p&&p&修人。&/p&&/blockquote&&br&依次百度:&br&1.PS瘦脸&br&2.PS调色&br&3.PS修补工具&br&4.PS修头发&br&5.PS调睫毛&br&6.PS自然特教&br&7.PS人像&br&&br&我真搞不懂&br&既然明确的知道自己需要什么&br&为什么不利用搜索引擎&br&上知乎上来提问?&br&&b&你并没有疑问,你只是懒&/b&
目标:短期:会瘦个脸,调个色,修走画面角落乱入的路人等。中期:会修个头发,调个睫毛,挽救糟糕妆娘导致的糟糕造型。长期:会P个蓝天白云夕阳晚霞搞个特效还很自然。(请不要对我说其实下个美图秀秀就够了,我这么挑剔的人是忍不了的。) 重点:修人。 …
题主这个问题很有意思,我试图来给题主提供一些思考的方向。当然,由于我的专业并非这一方向,所以一旦出现错误,请各位不要犹豫,务必要非常用力的打我的脸。&br&&br&那么首先,我要抓一个题主问题中的bug。题主在问题补充中给出了这样一张图:&br&&img src=&/43f6c1d90abe5c76ac5b2bd9_b.jpg& data-rawwidth=&741& data-rawheight=&299& class=&origin_image zh-lightbox-thumb& width=&741& data-original=&/43f6c1d90abe5c76ac5b2bd9_r.jpg&&&br&的确,图中的人物确实十分漂亮,在人群中确实也是男神女神的水准。但问题是,他们真的是各人种的平均长相吗?&br&&br&很遗憾,答案是否定的。&br&感谢现代发达的搜索技术,我们只需在搜索引擎中进行简单的搜索,就能找到这张图的出处。所以,我们会看到这个:&br&&img src=&/6eb4d2fea8e219b5abdf05c7c4caecae_b.jpg& data-rawwidth=&481& data-rawheight=&318& class=&origin_image zh-lightbox-thumb& width=&481& data-original=&/6eb4d2fea8e219b5abdf05c7c4caecae_r.jpg&&&br&&br&是不是令人很失望?她们之所以很漂亮,是因为用来合成她们的“被平均者”本身就很漂亮。而题主所说的各人种的平均长相,其实更接近这种:&br&&br&&img src=&/d235b46abc8ada09bac2c2_b.jpg& data-rawwidth=&637& data-rawheight=&343& class=&origin_image zh-lightbox-thumb& width=&637& data-original=&/d235b46abc8ada09bac2c2_r.jpg&&&br&嗯,看起来也没有那么漂亮嘛。&br&&br&但是,题主的问题是不是就不成立了呢?&br&答案还是否定的。&br&&br&事实上,题主你并不是唯一一个发现平均脸与吸引力之间存在着正相关性的人。有一位叫做Langlois的人,她在研究中也发现了这一规律。她为了验证这一猜想,做了一些实验,并将她的实验结果写进了一篇叫做《&a href=&///?target=http%3A///content/1/2/115.short& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Attractive faces are only average&i class=&icon-external&&&/i&&/a&》的论文当中。而在她的这篇论文中,她认为代表着平均值的面孔,会稳定的被人们认为是富于吸引力的面孔。看来,题主的问题是成立的,平均脸的确很有吸引力。&br&&br&这篇论文引起了很多人的关注。&br&有很多人试图去重复这一实验,以验证这一结论的可信度。或者,从各种角度发展理论,来解释这一现象。其中,我最喜欢的一个理论是这样的。&br&&br&这个理论认为,在自然选择的情况下,太过极端的个体更容易遭到淘汰,而一个生存能力更好的表型,一般是在各方面都没有明显短板的,也就是更加平均的表型。&br&所以,一个典型的平均脸会在一些方面拥有超出平均的表现,比方说呼吸能力与咀嚼能力。也就是说,平均的脸部可能代表他们拥有不错的健康表现。而由于人类在择偶的时候,会在潜意识里将对方的健康情况也纳入考虑之中,所以就造成了这些人看起来更具“吸引力”。&br&&br&当然,也有一些人对这个进化理论的强度表示怀疑,并试图从美学方面做出解释。他们认为,经由计算机处理的脸部往往更加对称,并且,如你所见,脸部的皮肤变得更加光滑了,这给我们造成了视觉上的美感。&br&&br&而另外一个可能的原因是这样的。一般来说,在心理学上,人们会对“更加像自己”的面孔抱有好感。很明显,一张“平均脸”要比任意拿出的一张“随机脸”更加像自己。&br&&br&最后,尽管我们认为平均脸似乎更加有魅力,但是平均脸往往并不是最有魅力的。平均意味着丧失个性,千人一面,在美丽的同时缺乏了一定的可辨识度。而且,更加值得有趣的是,一些被我们认为是“富于吸引力的”面部元素,并不是“平均的”。比方说,在我们欣赏女性时,我们会更加青睐那些大眼睛的女生。大眼睛看起来可能显得更加健康,这可能是因为大面积的眼白代表着较好的健康状况(没有被感染或是有什么明显的症状)。而在观察男性时,情况却可能有所不同。这种偏离平均的审美,与社会对两性的不同看法可能有关。&br&&br&关于这个问题,建议题主可以试图阅读这篇文章:&a href=&///?target=http%3A//www.jstor.org/stable/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Averaged faces are attractive, but very attractive faces are not average&i class=&icon-external&&&/i&&/a&。希望这些能给题主一些帮助。
题主这个问题很有意思,我试图来给题主提供一些思考的方向。当然,由于我的专业并非这一方向,所以一旦出现错误,请各位不要犹豫,务必要非常用力的打我的脸。 那么首先,我要抓一个题主问题中的bug。题主在问题补充中给出了这样一张图: 的确,图中的人物…
这几天正好用到pdf转word,正好可以把试过的几款软件拿出来对比一下。&br&首先,部分软件如清华紫光OCR和汉王OCR是需要先把pdf转成图片的,那么肯定截的图越大,识别率越高。&br&比如原图是这样的,在截图的时候把pdf放到了最大:&br&&img src=&/4a42e29e7626dedfd8e8_b.jpg& data-rawwidth=&1186& data-rawheight=&286& class=&origin_image zh-lightbox-thumb& width=&1186& data-original=&/4a42e29e7626dedfd8e8_r.jpg&&清华紫光的转换结果是这样的:&br&须与QRS波探测器相结合。这可以防止QRS探测器将起搏脉冲或它们的过冲误检为心动。这种交互主要是使QRS探测器在起搏脉冲探测器触发后的短时间内忽略(即不再搜寻QRS波)此时的心电信号。在充满电噪声的环境中起搏脉冲探测器可能会误检,所以这会导致只有非常少的心电信号被允许(经QRS探测器)处理,这样会引起真正的心动漏检和对部分不需进行QRS波检侧的心电信号进行检测。这些都会引起心率的显示结果不稳定.在这样的噪声环境中,停止显示起搏标志(伪迹》是必要的,这样才不会影响真正的心电波形的显示。在这些情况下,监护仪心率的测量准确度主要在于起搏脉冲检测是否仍影响QRS波检测,而并非仅仅是是否显示了起搏标志。&br&总之,还算OK。&br&&br&但如果换小一些,结果就是这样的:&br&ffl=i QRS RNM器相结合。这可以MJE QRS 19侧器将起搏脉冲或它们的过冲误枪为心It. i$种交舌主要是使QRS探侧器在起搏脉冲探侧器触发后的短时问内忽略〔即不再搜寻QRS波)此时的心电形号在充滴电嘴声的环缝中起搏脉冲探侧器可能会误检,所以这会导致只有非常少的心电信号被允详(经QRS探侧器)41A.AW会引起真正的心动翻*fP对部分不需进行QRS波检侧的心电信号进行拍测。这些都会引起心率的显示结果不撼定。在这样的嗓声环峨中,停止显示起搏标志〔伪迹)是必要的这样才不会影响真正的心电波形的显示。在这些悄况下,监护仪心率的侧盆准确度主要在于起搏脉川检测是否仍影响QRS波检侧而井非仅仅是是否显示了起搏标志。&br&明显效果差多了。。。&br&&br&所以后来换了另一个软件,ABBYY Finereader。号称带OCR功能,并能自动区分图片和文字,在部分图文并茂的pdf页面下,表现还是很给力的,比如这样:&br&&img src=&/75d28a589d128e6cbe7522_b.jpg& data-rawwidth=&719& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&719& data-original=&/75d28a589d128e6cbe7522_r.jpg&&所谓的自动提取图片功能算是基本实现了。&br&&br&但是,完全不满足答主的要求比如在有万恶的水印的情况下:&br&&img src=&/61672f9dbf6a3f0aef190b1a3bb018f6_b.jpg& data-rawwidth=&822& data-rawheight=&594& class=&origin_image zh-lightbox-thumb& width=&822& data-original=&/61672f9dbf6a3f0aef190b1a3bb018f6_r.jpg&&这个基本上就是废了。。。&br&&br&文字识别其实已经算比较成熟了。但是如果考虑到继续优化软件的话,题主倒是可以做一些加强功能插件,先把能找到的转换软件都找来,用很多pdf转来看看结果上有什么问题,针对这些问题进行优化工作。只要有创新点,版权就是你的。&br&说白了就是图像处理的一些细节方面的东西;比如说水印这个,可以先提取水印颜色,算法去掉暗色的水印后再开始文字识别;再比如说把图像里的艺术文字继续保留为图像,可以先算出扫描文字的大小,依次为标准,比标准大的就当成图片处理,小的就当成角标。再比如有些扫描件文字比较模糊,需要对图像文字加强处理(这个好像上面的软件已经有在做了),这也是一个可以优化的方向。&br&当然有其极限所在,那种人眼都分辨不出来的扫描pdf,还是不要抱希望了。&br&以上。
这几天正好用到pdf转word,正好可以把试过的几款软件拿出来对比一下。 首先,部分软件如清华紫光OCR和汉王OCR是需要先把pdf转成图片的,那么肯定截的图越大,识别率越高。 比如原图是这样的,在截图的时候把pdf放到了最大: 清华紫光的转换结果是这样的: …
个人认为,传统工程测量规模在缩减,但并不意味这完全消失。我国依然是发展中国家,大规模的基础建设:公路、桥梁、码头、地铁、隧道。。太多了,短时间内基础测绘工具依然有重大用处。随着现在3S技术发展迅猛,当然相应的会有更多的用武之地,就拿你说的全站仪或经纬仪绘制地形图吧,现在大范围的测图肯定是以RTK为主了,但是全站仪依然是有必要的,比如隧道、高层建筑、大片水域等地方容易出现GP信号被遮挡或者多路径效应,这时候全站仪就派上用场了。当然,近几年国家大力发展地理国情监测,所以GIS和RS备受重视,各省市测绘局需要量越来越大,传统测绘方式已经受到很大的冲击了。依然拿测图说事,现在已经有多种方式:遥感卫星、无人机航测测图或者机载雷达的方式进行测量构建模型,但RTK在众多施工单位中依然是首选,这考虑到成本和效率的关系。智慧城市智慧地球的发展目标已经喊了好多年了,目前来看还比较难,测绘之路路漫漫修远兮。&br&欢迎拍砖。
个人认为,传统工程测量规模在缩减,但并不意味这完全消失。我国依然是发展中国家,大规模的基础建设:公路、桥梁、码头、地铁、隧道。。太多了,短时间内基础测绘工具依然有重大用处。随着现在3S技术发展迅猛,当然相应的会有更多的用武之地,就拿你说的全…
题主所说的在保持坐标轴不变的情况下,对图像进行特定角度的旋转,其实就是将图像按照某一固定轴旋转一定角度。&b&&i&MATLAB&/i&&/b&中可以通过&b&&i&rotate&/i&&/b&函数实现(区别于&b&&i&view&/i&&/b&和&i&&b&rotate3d&/b&&/i&,它们只改便3D图形的视角,并不旋转图像本身)。&br&&br&首先,看一下如何对旋转轴进行刻画,一般有两种方式:&br&&ol&&li&以[&img src=&///equation?tex=x& alt=&x& eeimg=&1&&&img src=&///equation?tex=y& alt=&y& eeimg=&1&&&img src=&///equation?tex=z& alt=&z& eeimg=&1&&]表示的向量作为旋转轴,即笛卡尔形式(&i&&b&Cartesian candidates&/b&&/i&),示意图如下&img src=&/818bbfbb72e03d3f62f1b10c2251ad4c_b.jpg& data-rawwidth=&327& data-rawheight=&240& class=&content_image& width=&327&&&br&&/li&&li&以[&img src=&///equation?tex=%5Ctheta& alt=&\theta& eeimg=&1&&&img src=&///equation?tex=%5Cphi& alt=&\phi& eeimg=&1&&]表示的球坐标(&i&&b&spherical candidates&/b&&/i&)为的旋转轴,其中&img src=&///equation?tex=%5Ctheta& alt=&\theta& eeimg=&1&&为旋转轴在&img src=&///equation?tex=xy& alt=&xy& eeimg=&1&&平面投影与&img src=&///equation?tex=x& alt=&x& eeimg=&1&&正半轴的夹角,&img src=&///equation?tex=%5Cphi& alt=&\phi& eeimg=&1&&为旋转轴与&img src=&///equation?tex=xy& alt=&xy& eeimg=&1&&平面所成夹角,示意图如下&/li&&/ol&&img src=&/6ce31afe9f8deaa39e2de1_b.jpg& data-rawwidth=&310& data-rawheight=&236& class=&content_image& width=&310&&其次,选定旋转轴的起始点[&img src=&///equation?tex=x_0& alt=&x_0& eeimg=&1&&&img src=&///equation?tex=y_0& alt=&y_0& eeimg=&1&&&img src=&///equation?tex=z_0& alt=&z_0& eeimg=&1&&],特定的旋转轴肯定是由一点和方向向量(&b&direction&/b&,如上所述)唯一确定的,如果缺省的话,&b&MATLAB&/b&将其默认为&i&&b&plotbox&/b&&/i&中心点。&br&&br&最后,就是围绕旋转轴旋转多少角度的问题,习惯以&img src=&///equation?tex=%5Calpha& alt=&\alpha& eeimg=&1&&标记标记所要旋转的角度,那么&i&rotate&/i&函数的语法规则为:&br&&div class=&highlight&&&pre&&code class=&language-text&&rotate(h,direction,alpha,origin)
&/code&&/pre&&/div&&blockquote&&i&&b&h&/b& is the graphics object.&br&&b&direction&/b& is a two- or three-element vector that describes the axis of rotation.&br&positive &b&alpha&/b& is defined as the righthand-rule angle about the direction vector as it extends from the origin of rotation.&br&&b&origin&/b& is a three-element vector which describes the origin of the axis of rotation.&/i&&/blockquote&&br&翻译成人话就是:&br&&ul&&li&&b&&i&h&/i&&/b&为待旋转的图像对象&/li&&li&&b&&i&direction&/i&&/b&为以笛卡尔或球坐标表示的旋转轴,对应为3维和2维向量&/li&&li&&i&&b&alpha&/b&&/i& 为旋转角度&/li&&li&&b&&i&origin&/i&&/b& 表示旋转轴的起始点&/li&&/ul&&br&简单看个例子:&br&&div class=&highlight&&&pre&&code class=&language-text&&figure
sp11=subplot(2,2,1);
h11=surf(sp11,peaks(35));
title('No Rotation')
sp12=subplot(2,2,2);
h12=surf(sp12,peaks(35));
title('Rotation Around [1 1 1]-Axis')
zdir=[1 1 1];
rotate(h12,zdir,30)
sp21=subplot(2,2,3);
h21=surf(sp21,peaks(35));
title('Rotation Around [1 1 1]-Axis')
zdir=[45 45];
rotate(h21,zdir,30)
sp22=subplot(2,2,4);
h22=surf(sp22,peaks(35));
title('Rotation Around Z-Axis')
zdir=[0 90];
rotate(h22,zdir,90)
&/code&&/pre&&/div&&br&效果图如下:&br&&img src=&/33d27e02e9ee_b.jpg& data-rawwidth=&615& data-rawheight=&300& class=&origin_image zh-lightbox-thumb& width=&615& data-original=&/33d27e02e9ee_r.jpg&&&br&可以看到,第一张图为旋转前的原图,第二张和第三张分别按照笛卡尔形式和球坐标形式给出的绕同一旋转轴[1 1 1]旋转&img src=&///equation?tex=30%5E%5Ccirc& alt=&30^\circ& eeimg=&1&&后的效果图,最后一张为绕&img src=&///equation?tex=Z& alt=&Z& eeimg=&1&&轴旋转&img src=&///equation?tex=90%5E%5Ccirc& alt=&90^\circ& eeimg=&1&&。&br&&br&&u&&b&PS.&/b&&/u&&br&&ol&&li&以上内容主要参考&i&&b&MATLAB&/b&&/i&强大的帮助文档,部分截图也出自源文档。&br&&/li&&li&作为一个学术界的搬运工,希望能帮到题主~&br&&/li&&/ol&&br&附&b&&i&MATLAB&/i&&/b&关于&b&&i&rotate&/i&&/b&函数的官方注解(学渣英语不好,不想坑了题主,所以以上内容仅供参考)&br&&blockquote&&i&&b&rotate&/b& Rotate objects about specified origin and direction.&/i&&br&&i&&b&rotate&/b&(H,[THETA PHI],ALPHA) rotates the objects with handles H&/i&&i& through angle ALPHA about an axis described by the 2-element &/i&&i&direction vector [THETA PHI] (spherical coordinates).
&/i&&br&&i&All the angles are in degrees.
The handles in H must be children &/i&&i&of the same axes.&/i&&br&&br&&i&THETA is the angle in the xy plane counterclockwise from the &/i&&i&positive x axis.
PHI is the elevation of the direction vector &/i&&i&from the xy plane (see also SPH2CART).
Positive ALPHA is defined &/i&&i&as the righthand-rule angle about the direction vector as it &/i&&i&extends from the origin.&/i&&br&&br&&br&&i&&b&rotate&/b&(H,[X Y Z],ALPHA) rotates the objects about the direction &/i&&i&vector [X Y Z] (Cartesian coordinates). The direction vector &/i&&i&is the vector from the center of the plot box to (X,Y,Z).&/i&&br&&br&&i&&b&rotate&/b&(...,ORIGIN) uses the point ORIGIN = [x0,y0,z0] as &/i&&i&the center of rotation instead of the center of the plot box.&/i&&/blockquote&
题主所说的在保持坐标轴不变的情况下,对图像进行特定角度的旋转,其实就是将图像按照某一固定轴旋转一定角度。MATLAB中可以通过rotate函数实现(区别于view和rotate3d,它们只改便3D图形的视角,并不旋转图像本身)。 首先,看一下如何对旋转轴进行刻画,…
我也问过自己这个问题,一句话的回答:对于自然图像,相位包含了更多的视觉信息。&br&&br&我知道你不满意,所以再解释一下。由于自然图像都具有低通的特性(低频成分占据大部分能量),所以事实上大部分图像的幅度谱长得都很像(在matlab里做2-D fft,然后fftshift,得到的频谱中幅度都是中间/低频是比较大的值,周围/高频是比较小的值)。但是不同图像的相位谱差异很大。&br&&br&如何理解这个现象呢?在学习傅里叶级数的时候,我们知道相同周期的函数,可以用同样的傅里叶basis来表达。之所有有不同的波形/函数,是因为不同频率成分/谐波分量的幅值、相位不同。由于自然图像都具有低通特性,所以不同谐波分量的幅值具有类似的分布特性。那么图像的差异,更多的来自于不同谐波分量相位的差异。&br&&br&比如图像(尤其是医学图像)可以看成piecewise smooth,甚至piecewise constant。下面两个一维图像在视觉上是很不同的。但他们的谐波分析中,幅度谱完全一致,差异来自相位谱的不同。&br&&img src=&/f266da291ffdf6d101d5acca_b.jpg& data-rawwidth=&784& data-rawheight=&768& class=&origin_image zh-lightbox-thumb& width=&784& data-original=&/f266da291ffdf6d101d5acca_r.jpg&&有趣的是,对于音乐信号,似乎幅度谱中包含了更多听觉信息。比如不同乐器的音色不同,主要是因为不同谐波分量的幅值不同。当然也有人分析过相位在音色中扮演的作用。
我也问过自己这个问题,一句话的回答:对于自然图像,相位包含了更多的视觉信息。 我知道你不满意,所以再解释一下。由于自然图像都具有低通的特性(低频成分占据大部分能量),所以事实上大部分图像的幅度谱长得都很像(在matlab里做2-D fft,然后fftshift…
先上sift图像金字塔的图&br&&img src=&/7edf81fd556b558d93a892_b.png& data-rawwidth=&509& data-rawheight=&432& class=&origin_image zh-lightbox-thumb& width=&509& data-original=&/7edf81fd556b558d93a892_r.png&&&br&如果要说这种图像采样结构是金字塔的话,那也是玛雅人的金字塔而不是埃及人的金字塔。因为这个金字塔是明显分级的。英文Octave是音乐上一个八度的意思,在这里指的是一组图像。这一组图像的分辨率是相同的,但是采用了不同的高斯函数进行滤波,因此从模糊程度上看(或者说从关注的尺度上看是有区别的。),而不同组的图像具有不同的分辨率,在尺度上的差别就更大。&br&&br&那么回到题主的问题。为什么已经使用了不同尺度的高斯函数进行滤波还需要引入高斯金字塔呢?这是因为SIFT算法希望能具有更高的尺度分辨率(也就是希望相邻尺度的变化比较精细),所以就需要有很多层。如果不用高斯金字塔,都在原始分辨率上靠采用不同的高斯函数实现多尺度检测,那么对于比较粗尺度的特征提取在计算量上就相当浪费。因为在保持图像原始分辨率不变的情况下,提取粗尺度特征需要高斯函数的方差较大,相应的滤波窗口也比较大,计算量会激增,而由于图像在大尺度上的模糊,保持原始分辨率已经没有必要了,这种计算消耗就更是得不偿失。所以采用高斯金字塔是为了高效地提取不同尺度的特征。&br&&br&不同octave之间的尺度差异靠高斯金字塔在分辨率上的区别实现,同一个octave内部不同层之间的尺度差异靠高斯函数的方差变化来实现。另外SIFT在DOG问题上并不是使用DOG函数直接滤波,而是用相邻两层的高斯滤波结果相减得到的,为什么要这样呢?&br&&br&也是为了节省计算量。因为如果直接采用DOG函数,为了提取不同的尺度,就必须逐渐扩大DOG函数的窗口,这会引起计算量的增加。在实际操作中,SIFT首先对当前octave对应的分辨率的采样图像用一个窗口相对较小的高斯函数滤波,之后同一个octave的第2层一直到第k层,都是通过对前一层已经滤波过的结果再进行一次高斯滤波。对一副原始图像用方差为&img src=&///equation?tex=%5Csigma%5E2& alt=&\sigma^2& eeimg=&1&&的高斯函数连续做两次滤波的结果,相当于对这幅图像直接用一个&img src=&///equation?tex=2%5Csigma%5E2& alt=&2\sigma^2& eeimg=&1&&的高斯函数做一次滤波。所以每次都在前一层的滤波结果基础上进行滤波,跟对原始图像分别用不同窗口大小的高斯函数滤波的结果是一样的,但是因为避免了滤波函数窗口的扩大,可以有效减少计算量。
先上sift图像金字塔的图 如果要说这种图像采样结构是金字塔的话,那也是玛雅人的金字塔而不是埃及人的金字塔。因为这个金字塔是明显分级的。英文Octave是音乐上一个八度的意思,在这里指的是一组图像。这一组图像的分辨率是相同的,但是采用了不同的高斯函…
已有帐号?
无法登录?
社交帐号登录

我要回帖

更多关于 能产生多糖的细胞器 的文章

 

随机推荐