关于平面向量的数量积点积得原理

支持向量机原理及展望_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
9页免费28页免费98页免费3页¥2.003页免费 13页免费28页免费11页免费39页免费8页免费
喜欢此文档的还喜欢28页免费68页1下载券38页免费9页免费3页免费
支持向量机原理及展望|支​持​向​量​机​原​理​及​展​望
把文档贴到Blog、BBS或个人站等:
普通尺寸(450*500pix)
较大尺寸(630*500pix)
你可能喜欢GPU上实现的向量点积的性能分析--《计算机工程与应用》2012年02期
GPU上实现的向量点积的性能分析
【摘要】:CUDA是一种较为简便的利用GPU进行通用计算的技术。研究了GPU上基于CUDA的几种向量点积算法,比较、分析了每种算法的性能。实验表明,GPU上最快的算法比CPU上的算法快了约7倍。
【作者单位】:
【关键词】:
【基金】:
【分类号】:TP391.41【正文快照】:
1基于CUDA的GPU计算简介GPU(图形处理器)原本是处理计算机图形的专用设备,近十年来,由于高清晰度复杂图形实时处理的需求,GPU发展成为高并行度、多线程、多核的处理器。目前主流GPU的运算能力已超过主流通用CPU,从发展趋势上来看将来差距会越拉越大。GPU卓越的性能对开发GPGPU
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【相似文献】
中国期刊全文数据库
邢丰,戴梅萼,周健,余振健,付昊桓,赵鹏,付良;[J];电子技术应用;2004年12期
陈辰;[J];电子产品世界;1996年06期
曹进克,龙明;[J];通信世界;1997年10期
梅其波;[J];中国计算机用户;1997年22期
;[J];单片机与嵌入式系统应用;2002年07期
连凤春;[J];电脑知识与技术;2004年02期
惠毓明;[J];软件世界;1995年09期
杨伊娜,唐义胜;[J];中国计算机用户;1996年22期
玄伟剑;[J];通信世界;1997年11期
姜刚;[J];中国计算机用户;1997年15期
中国重要会议论文全文数据库
刘铁锐;张志远;;[A];计算机技术在工程建设中的应用——第十二届全国工程建设计算机应用学术会议论文集[C];2004年
丘律文;严毅;;[A];广西计算机学会——2004年学术年会论文集[C];2004年
吴瑾;赵燕平;;[A];第11届全国计算机在现代科学技术领域应用学术会议论文集[C];2003年
丘律文;严毅;;[A];广西计算机学会2004年学术年会论文集[C];2004年
赵宏;吾守尔·斯拉木;侯勇;刘欣文;姚正亮;;[A];'2008系统仿真技术及其应用学术会议论文集[C];2008年
彭锴;;[A];全面建设小康社会:中国科技工作者的历史责任——中国科协2003年学术年会论文集(上)[C];2003年
张颖超;叶小岭;李泽安;高连军;吴平;;[A];第16届中国过程控制学术年会暨第4届全国故障诊断与安全性学术会议论文集[C];2005年
张赞军;王美琴;王英龙;潘景山;;[A];山东省计算机学会2005年信息技术与信息化研讨会论文集(一)[C];2005年
陈媛媛;付继华;王中宇;;[A];2007'中国仪器仪表与测控技术交流大会论文集(二)[C];2007年
陈兴蜀;沈昌祥;;[A];第六届全国计算机应用联合学术会议论文集[C];2002年
中国重要报纸全文数据库
;[N];计算机世界;2007年
山东理工大学
肖爱梅;[N];计算机世界;2002年
装备指挥技术学院电子工程系 淡鹏 张文 李晓梅;[N];中国计算机报;2004年
李琳琳;[N];计算机世界;2006年
张晓兵;[N];中国计算机报;2007年
张晓兵;[N];中国计算机报;2007年
于华;[N];中国计算机报;2001年
乐天;[N];计算机世界;2007年
;[N];网络世界;2006年
曙光信息产业有限公司研发中心
温鑫;[N];中国计算机报;2007年
中国博士学位论文全文数据库
陈雷霆;[D];电子科技大学;2007年
李隆;[D];中国科学技术大学;2008年
戴华东;[D];国防科学技术大学;2002年
程开东;[D];吉林大学;2009年
赵伟;[D];吉林大学;2009年
桂勋;[D];西南交通大学;2009年
高超;[D];中国科学技术大学;2010年
王瑞荣;[D];浙江大学;2003年
邓鹍;[D];国防科学技术大学;2001年
郭长国;[D];中国人民解放军国防科学技术大学;2002年
中国硕士学位论文全文数据库
蔡荣;[D];哈尔滨工业大学;2008年
蒋海涛;[D];重庆大学;2008年
郭恺;[D];西安电子科技大学;2008年
刘鸣涛;[D];中国海洋大学;2009年
沈银红;[D];沈阳工业大学;2006年
李小立;[D];西北工业大学;2001年
李小立;[D];西北工业大学;2002年
刘泉;[D];南京理工大学;2004年
姚春光;[D];国防科学技术大学;2003年
刘怀英;[D];武汉理工大学;2005年
&快捷付款方式
&订购知网充值卡
400-819-9993
800-810-6613
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 知识超市公司
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:800-810-91813
在线咨询:
传真:010-
京公网安备74号向量乘法原理
向量乘法原理
向量乘法原理是怎么来的?有没有几何意义?越详细越好,谢谢解答!
向量乘法包括:向量积,数量积 向量积
也被称为矢量积、叉积(即交叉乘积)、外积,是一种在向量空间中向量的二元运算。与点积不同,它的运算结果是一个伪向量而不是一个标量。并且两个向量的叉积与这两个向量都垂直。
定义:两个向量a和b的叉积写作a×b(有时也被写成a∧b,避免和字母x混淆)。叉积可以被定义为:在这里θ表示和之间的角度(0° ≤ θ ≤ 180°),它位于这两个矢量所定义的平面上。而n是一个与和均垂直的单位矢量。
向量由向量空间的方向确定,即按照给定直角坐标系 (i, j, k) 的左右手定则。若 (i, j, k) 满足右手定则,则 (a, b, a × b) 也满足右手定则;或者两者同时满足左手定则。
几何意义:叉积的长度 |a × b| 可以解释成以 a 和 b 为边的平行四边形的面积。进一步就是说,三重积可以得到以 a,b,c 为边的平行六面体的体积。
向量的数量积
已知两个非零向量a、b,那么|a||b|cos θ叫做a与b的数量积或内积,点积.记作a•b,θ是a与b的夹角(0° ≤ θ ≤ 180°),|a|cos θ(|b|cos θ)叫做向量a在b方向上(b在a方向上)的投影。零向量与任意向量的数量积为0。
a•b的几何意义:数量积a•b等于a的长度|a|与b在a的方向上的投影|b|cos θ的乘积。
两个向量的数量积等于它们对应坐标的乘积的和。
向量的数量积的性质
(1)a·a=∣a|²≥0
(2)a·b=b·a
(3)k(ab)=(ka)b=a(kb)
(4)a·(b+c)=a·b+a·c
(5)a·b=0⇔a⊥b
等待您来回答
学习帮助领域专家
当前分类官方群专业解答学科习题,随时随地的答疑辅导Posts - 139,
Articles - 31,
Comments - 233
17:07 by zhenjing, ... 阅读,
第一次听说google的simhash算法[1]时,我感到很神奇。传统的hash算法只负责将原始内容尽量均匀随机地映射为一个签名值,原理上相当于伪随机数产生算法。传统hash算法产生的两个签名,如果相等,说明原始内容在一定概率下是相等的;如果不相等,除了说明原始内容不相等外,不再提供任何信息,因为即使原始内容只相差一个字节,所产生的签名也很可能差别极大。从这个意义上来说,要设计一个hash算法,对相似的内容产生的签名也相近,是更为艰难的任务,因为它的签名值除了提供原始内容是否相等的信息外,还能额外提供不相等的原始内容的差异程度的信息。
因此当我知道google的simhash算法产生的签名,可以用来比较原始内容的相似度时,便很想了解这种神奇的算法的原理。出人意料,这个算法并不深奥,其思想是非常清澈美妙的。
simhash算法的输入是一个向量,输出是一个f位的签名值。为了陈述方便,假设输入的是一个文档的特征集合,每个特征有一定的权重。比如特征可以是文档中的词,其权重可以是这个词出现的次数。simhash算法如下:
1,将一个f维的向量V初始化为0;f位的二进制数S初始化为0;
2,对每一个特征:用传统的hash算法对该特征产生一个f位的签名b。对i=1到f:
&&&&如果b的第i位为1,则V的第i个元素加上该特征的权重;
&&&&否则,V的第i个元素减去该特征的权重。&
3,如果V的第i个元素大于0,则S的第i位为1,否则为0;
4,输出S作为签名。
这个算法的几何意义非常明了。它首先将每一个特征映射为f维空间的一个向量,这个映射规则具体是怎样并不重要,只要对很多不同的特征来说,它们对所对应的向量是均匀随机分布的,并且对相同的特征来说对应的向量是唯一的就行。比如一个特征的4位hash签名的二进制表示为1010,那么这个特征对应的4维向量就是(1, -1, 1, -1)T,即hash签名的某一位为1,映射到的向量的对应位就为1,否则为-1。然后,将一个文档中所包含的各个特征对应的向量加权求和,加权的系数等于该特征的权重。得到的和向量即表征了这个文档,我们可以用向量之间的夹角来衡量对应文档之间的相似度。最后,为了得到一个f位的签名,需要进一步将其压缩,如果和向量的某一维大于0,则最终签名的对应位为1,否则为0。这样的压缩相当于只留下了和向量所在的象限这个信息,而64位的签名可以表示多达264个象限,因此只保存所在象限的信息也足够表征一个文档了。
明确了算法了几何意义,使这个算法直观上看来是合理的。但是,为何最终得到的签名相近的程度,可以衡量原始文档的相似程度呢?这需要一个清晰的思路和证明。在simhash的发明人Charikar的论文中[2]并没有给出具体的simhash算法和证明,以下列出我自己得出的证明思路。
Simhash是由随机超平面hash算法演变而来的,随机超平面hash算法非常简单,对于一个n维向量v,要得到一个f位的签名(f&&n),算法如下:
1,随机产生f个n维的向量r1,&rf;
2,对每一个向量ri,如果v与ri的点积大于0,则最终签名的第i位为1,否则为0.
这个算法相当于随机产生了f个n维超平面,每个超平面将向量v所在的空间一分为二,v在这个超平面上方则得到一个1,否则得到一个0,然后将得到的f个0或1组合起来成为一个f维的签名。如果两个向量u, v的夹角为&,则一个随机超平面将它们分开的概率为&/&,因此u, v的签名的对应位不同的概率等于&/&。所以,我们可以用两个向量的签名的不同的对应位的数量,即汉明距离,来衡量这两个向量的差异程度。
Simhash算法与随机超平面hash是怎么联系起来的呢?在simhash算法中,并没有直接产生用于分割空间的随机向量,而是间接产生的:第k个特征的hash签名的第i位拿出来,如果为0,则改为-1,如果为1则不变,作为第i个随机向量的第k维。由于hash签名是f位的,因此这样能产生f个随机向量,对应f个随机超平面。下面举个例子:
假设用5个特征w1,&,w5来表示所有文档,现要得到任意文档的一个3维签名。假设这5个特征对应的3维向量分别为:
h(w1) = (1, -1, 1)T
h(w2) = (-1, 1, 1)T
h(w3) = (1, -1, -1)T
h(w4) = (-1, -1, 1)T
h(w5) = (1, 1, -1)T
按simhash算法,要得到一个文档向量d=(w1=1, w2=2, w3=0, w4=3, w5=0)&T的签名,
先要计算向量m = 1*h(w1) + 2*h(w2) + 0*h(w3) + 3*h(w4) + 0*h(w5) = (-4, -2, 6)&T,
然后根据simhash算法的步骤3,得到最终的签名s=001。
上面的计算步骤其实相当于,先得到3个5维的向量,第1个向量由h(w1),&,h(w5)的第1维组成:
r1=(1,-1,1,-1,1)&T;
第2个5维向量由h(w1),&,h(w5)的第2维组成:
r2=(-1,1,-1,-1,1)&T;
同理,第3个5维向量为:
r3=(1,1,-1,1,-1)&T.
按随机超平面算法的步骤2,分别求向量d与r1,r2,r3的点积:
d&T&r1=-4 & 0,所以s1=0;
d&T&r2=-2 & 0,所以s2=0;
d&T&r3=6 & 0,所以s3=1.
故最终的签名s=001,与simhash算法产生的结果是一致的。
从上面的计算过程可以看出,simhash算法其实与随机超平面hash算法是相同的,simhash算法得到的两个签名的汉明距离,可以用来衡量原始向量的夹角。这其实是一种降维技术,将高维的向量用较低维度的签名来表征。衡量两个内容相似度,需要计算汉明距离,这对给定签名查找相似内容的应用来说带来了一些计算上的困难;我想,是否存在更为理想的simhash算法,原始内容的差异度,可以直接由签名值的代数差来表示呢?
附参考文献:
[1] Detecting near-duplicates for web crawling.
[2] Similarity estimation techniques from rounding algorithms.平面向量的概念、线性运算、基本定理及坐标表示与向量的数量积知识点与同步练习_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
4页1下载券3页免费8页免费5页¥1.006页免费 5页免费5页免费3页免费3页免费3页1下载券
喜欢此文档的还喜欢2页免费3页1下载券3页1下载券7页1下载券4页免费
平面向量的概念、线性运算、基本定理及坐标表示与向量的数量积知识点与同步练习|
把文档贴到Blog、BBS或个人站等:
普通尺寸(450*500pix)
较大尺寸(630*500pix)
你可能喜欢

我要回帖

更多关于 平面向量的数量积 的文章

 

随机推荐