求:注塑缺陷及解决办法工厂的记效公式跟解决方案!谢谢!

查看: 4276|回复: 6
公式太多计算速度慢,求解决方案
阅读权限20
在线时间 小时
可能是公式太多了吧,计算速度慢,求解决的方案,考虑到要和2003的兼容性,sumifs函数不能用来代替sumproduct,高手们指点下看看什么地方可以改良的
15:55 上传
点击文件名下载附件
115.82 KB, 下载次数: 110
阅读权限20
在线时间 小时
& & & & & & & &
有人说可以用二进制的表格,我试过了但是效果还是不很理想,求教高手
阅读权限30
在线时间 小时
“销售日报”的数据改用数据库函数dsum在其它地方求和,再引用到报表里;“往来明细账”用透视表透视后,再用GETPIVOTDATA函数提取透视表的数据到“当前库存”表进行计算,这样会快很多,避免在大量数据的情况下使用sumproduct函数。
阅读权限20
在线时间 小时
用VBA是最好的解决方法
阅读权限20
在线时间 小时
多谢指点,学习中最需要高手点拨
阅读权限30
在线时间 小时
vba解决速度慢如何解决
阅读权限100
在线时间 小时
你不用选这么多行啊,选到10000就可以啦(如果想动态做行数的话,用offset+counta就可以啦,如在应收总览表中求恒远应付金额公式改为=-SUMIF(OFFSET(往来明细账!$E$6,,,COUNTA(往来明细账!$B:$B)),B6,OFFSET(往来明细账!$P$6,,,COUNTA(往来明细账!$B:$B))),这样话就可以提高一些速度;其它表你自己改。
玩命加载中,请稍候
玩命加载中,请稍候
Powered by
本论坛言论纯属发表者个人意见,任何违反国家相关法律的言论,本站将协助国家相关部门追究发言者责任! & & 本站特聘法律顾问:徐怀玉律师 李志群律师您的位置: &
注塑冷却过程中塑料制品的热应力计算公式
优质期刊推荐注塑帮:注塑工作中常用的计算公式!_注塑帮-爱微帮
&& &&& 注塑帮:注塑工作中常用的计算公式!
试试向公众号对话框发送你想知道的内容,回复QQ群,微信群,加入注塑帮组织也请加小编微信号: 为好友,获得更多人脉、技术、招聘、求职、采购资讯 F:锁模力 TON Am:模腔投影面积 CM2
Pv:充填压力 KG/CM2
(一般塑胶材料充填压力在150-350KG/CM2) (流动性良好取较底值,流动不良取较高值) 充填压力/0.4-0.6=射出压力 例:模腔投影面积 270CM2 充填压力 220KG/CM2
锁模力=270*220/TON
Pi: 射出压力 P:泵浦压力 A:射出油缸有效面积
Ao: 螺杆截面积 A= π*D2/4 D:直径 π:圆周率 3.14159
例1:已知泵浦压力求射出压力? 泵浦压力=75 KG/CM2 射出油缸有效面积=150CM2
螺杆截面积=15.9CM2(∮45) Pi=75*150/15.9=707KG/CM2
例2:已知射出压力求泵浦压力? 所需射出压力=900 KG/CM2 射出油缸有效面积=150CM2
螺杆截面积=15.9CM2(∮45) 泵浦压力P= Pi*Ao/A=900*15.9/150=95.4 KG/CM2
V:射出容积 CM3 π:圆周率 Do:螺杆直径 CM
ST:射出行程 CM
例:螺杆直径 42mm 射出行程 165mm
V= π*4.2*4.2/4*16.5=228.6CM3
Vw:射出重量 G V:射出容积 η:比重 δ:机械效率 例:射出容积=228.6 CM3 机械效率=0.85 比重=0.92
射出重量 Vw=228.6*0.85*0.92=178.7G
S:射出速度 CM/SEC Qr:泵浦吐出量(每回转/CC)CC/REV
A:射出油缸有效面积 CM2 Q=Qr*RPM/60 (每分钟/L)
Q:泵浦吐出量 RPM:马达回转数/每分钟 例:马达转速 1000RPM 泵浦吐出量85 CC/REV
射出油缸有效面积 140 CM2
S=85*=10.1CM/SEC
Sv:射出率G/SEC S:射出速度CM/SEC Ao:螺杆截面积 例:射出速度=10CM/SEC 螺杆直径∮42
面积=3.*4.2/4=13.85CM2
Sv=13.85*10=138.5G/SEC注塑帮——还没找到组织?注塑帮微信群是中国最大的注塑微信群组, 赶快加入和小伙伴们聊聊吧!加群方法:先加注塑帮小编为好友(微信号),然后发送消息“进群”, 小编将对应群的二维码回复给你加入注塑帮,是中国领先的注塑全产业链公众平台,致力为全球注塑创造便捷的信息渠道。注塑帮,我们提供“品牌、加工、设备、原料、培训”服务,致力于注塑产业链信息化。注塑帮官网:点击进入? (忙碌建设中)联系我们:全国统一服务热线:企业微信号:zhusubangvip,长按三秒立刻关注!注塑帮—注力工厂,塑造世界!注塑帮行业最新消息每日发送,注塑加工订单,注塑原料价格,注塑工艺技术,注塑机械设备,注塑行业论坛,注塑机生产厂家信息一站解决!
点击展开全文
悄悄告诉你
更多同类文章
还可知道有多少人阅读过此篇文章哦
阅读原文和更多同类文章
可微信扫描右侧二维码关注后
还可知道有多少人阅读过此篇文章哦
注塑帮——注塑产业第一自媒体!注塑行业第一人脉圈!
您的【关注和订阅】是作者不断前行的动力
本站文章来自网友的提交收录,如需删除可进入
删除,或发送邮件到 bang@ 联系我们,
(C)2014&&版权所有&&&|&&&
京ICP备号-2&&&&京公网安备34吸塑怎么算成本?吸塑厂里的师傅是怎么算排版和成本的,求公式!吸塑托盘,或折盒类的,材料是塑料卷材.谢绝CTRL+C
米饭wan14908
  用一种塑料加工工艺,将平展的塑料硬片材加热变软后,采用真空吸附于模具表面,冷却后成型的方式,生产出广泛用于塑料包装、灯饰、广告、装饰等行业的产品.  亚克力又名Acrylic,化学名称为甲基丙烯酸甲脂,即高纯度有机玻璃板,由此制成亚克力板表面光洁度高,户外抗紫外线能力强,一般高纯度的亚克力有色板置于户外8-10年不会褪色.自从1942年在美国诞生后,被各行各业广泛应用.在广告制作业中,因其诸多优点,便成为一种优质广告材料.  自2002年开始,亚克力吸塑字便开始在广告行业中崭露头角.其实吸塑招牌在几年前就有了,也不算什么新玩意.话虽如此,但那时的吸塑灯箱只不过是“土法”制作,以前也没有如今这么高纯度的亚克力板,只有较差的有机玻璃板,更没有像现在多种规格、几十种不同颜色的板材.如今,亚克力吸塑字制作已经成为通过计算机辅助设计,经专业设备加工,由机械化生产线制作的现代化生产产品,完全克服了过去没有规模,无质量保证,也无效益的“土法”加工状况.  近两年,亚克力吸塑字应用及其发展速度很快.其中“麦当劳”等店招吸塑灯箱应用起到了良好的示范作用,中国石化各加油站的亚克力吸塑整体标识系统应用,各大手机厂家的终端卖场的吸塑字展示在为厂商创造良好广告效益的同时,对亚克力吸塑字的推广起到了推动作用.现在已能看出,亚克力吸塑字已成为继霓虹灯、喷绘、雕刻之后广告制作行业中又一新的亮点.  形成这种势头有以下几个原因:l、市场本身存在很大需求空间.2、亚克力吸塑字本身具有档次高的特点,不论白天、夜晚都美观大方、高雅不俗,具有强烈的视觉冲击力.3、不论是亚克力字还是亚克力槽形发光字都具有表现形式灵活多样,经创意设计又能表达出客户所需的与众不同的个性化特点,尤其在经过前段时间喷画过度泛滥,满街满眼的灯箱布的阶段,无论大众还是专业客户都在期望高档次、个性时尚的、新的广告表现手段,而亚克力吸塑灯箱在一定程度上适应或迎合了这种需求.4、作为广告制作企业本身,亚克力吸塑字的制作具有行业中较大的利润空间,而且七、八万至十几万元一套的亚克力生产设备的投资相对较小.  亚克力吸塑字的制作需要掌握4个要点,经过十几道工序:  第一是选材.目前国内见到的亚克力板材,基本为进口或外合资生产,板材质量应该说较好.亚克力吸塑灯箱之所以市场价格较高,板材价格较高是其主要因素之一.目前市场上亚克力板材单价一般在25-30元/公斤,不仅单价高,整张板材在制作过程中利用率也不高,造成成本摊销很大.  第二是模具制作.大家知道,亚克力力板通过真空定位、吸压成型,即使是同一个字,尺寸不同也需要不同模具,而模具制作本身要求精度高质量好.因为模具本身的精度、质量直接关系到亚克力产品的质量,而模具制作具有较高工艺水平,需要经验丰富的技术人员.因此,如前所述,目前市场上吸塑灯箱一直处于高等的价位,模具的加工应该说是其中最主要的技术.  第三是后期制作.前面讲过,现在亚克力吸塑制作基本是机械化制作,一些新设备的应用在提高生产效率同时,大大减轻了工人的劳动强度.亚克力吸塑材料基本成型后,还要经过铣边、镂铣、打磨等几道工序,最后将灯箱铺设光源,烤漆后制作完成.  第四是画面处理.根据客户的不同需要,通过丝网印刷直接;争画面转印到亚克力板材上,后经真空吸压成型,画面中有人物、动物或商品形象,还能再吸塑成立体效果,从而得到更加好的宣传效果.  手工吸塑技术是一种不需要购买昂贵的雕刻机、吸塑机一样可以制作出吸塑效果的字的一种简易方法.  手工吸塑模具可长期使用.而广告业做立体字的模具只使用一次,所以模具的成本及方便简易十分重要.本工艺最大的特点是:模具成本极低,制作容易,甚至用厚纸板锯出字型就是模具!模具的作用只是要个字的形状.本技术可以使用亚克力板材,更推荐使用改性薄型板材,因为其材质轻盈,抗裂,应用领域更宽!更为精彩的是,完全抛弃工业吸塑机,免去几万元的投资苦恼(干多少活儿才能赚回来呀)!  本技术即可以用市面上的亚克力板,其厚度0.3-0.5毫米以至于任何厚度,0.3的板材可以做到1平米,0.5的可以做到2米以上的大字!表面凸起可以是平凸状、圆凸状、三角凸状(麦当劳),而吸塑机要想出上述形状要做完全一样的造型模具,还要打磨光滑,工本极大,在非批量生产需求的前提下简直是不可能!而本技术只需7-8元的模具成本,20分钟搞定!  本技术理论上可以上百种颜色!也可以出金银、木纹、多色渐变等效果.表面光滑如镜!可以内置光源做成发光字,也可以粘在建筑物以及喷绘灯箱的表面,提高喷绘产品的档次(因材料极轻,韧性高,坚固结实,往地上摔都不破)!  本工艺更不需要什么雕刻机、铣边机之类.模具材料即廉价又极易加工,有一把曲线锯既可,成品立体字用刀或剪刀即可以裁边.做发光字时侧边条可以使用同颜色或不同颜色材料粘接,完全避免铝合金边条不能做小空隙的弊病.另外,因为本工艺的字面凸起达到5公分以上,侧边条根据情况可加可不加!本工艺推荐使用的板材成本是国产亚克力材料的十分之一、二!进口亚克力材料的几十分之一!模具成本仅仅7元/平米!在你所在地区一旦推出,会严重冲击其他立体字、发光字同行,同时也救活喷绘市场,因为该轻型立体字可以粘贴在喷绘的表面,图文并茂、美伦美奂.无疑,这项技术会风靡未来的广告招牌行业,早上早获利!成本20元一平米的“吸塑”字!  本技术成为广告行业史上的最成功的发明!无论是效果、加工难度、成本控制等各方面都已经做到尽善尽美!使其他任何立体字成型工艺、吸塑字成型工艺都黯然失色!  吸塑字价格的算法:好多业内人士一直搞不懂吸塑字的算法,现将其算法粗略说一说,欢迎大家探讨:吸塑字通常是按字的最长边计算,字的最长边低于一米按公分计算;最长边高于或等于一米就按平方计算.这里需要注意的是:如果字的一边在一米以上,而另一边才四五十公分,那么计算就应该这样了:(字长+字宽)÷2×单价;吸塑灯箱的算法也基本一样,只是需分单面还是双面罢了.
为您推荐:
其他类似问题
扫描下载二维码科技文献关键词冗余解决方案研究
邢美凤. 科技文献关键词冗余解决方案研究. 现代图书情报技术, ): 34-39Xing Meifeng. Study on Solution to Redundancy of Scientific Literature Keywords. New Technology of Library and Information Service, ): 34-39&&
Permissions
科技文献关键词冗余解决方案研究
中国科学院国家科学图书馆 北京 100190中国科学院研究生院 北京 100049晋中学院图书馆 晋中 030600
提出一种改进的基于相似度计算的科技文献关键词选取算法。先利用N-gram算法提取领域词库,再综合利用领域词库和常识词库,对最初选择的关键词重新切分,进行给定关键词之间的语义对比。语义相似度大于一定阈值的关键词被认为是表达同一意义的同义词,将同义词在文献库中合并,从而解决关键词冗余问题。实验结果可以证明该方法的有效性。
科技文献冗余;
语义相似度;
Study on Solution to Redundancy of Scientific Literature Keywords
Xing Meifeng
National Science Library, Chinese Academy of Sciences, Beijing 100190, ChinaGraduate University of Chinese Academy of Sciences, Bejing 100049, ChinaJinzhong University Library, Jinzhong 030600, China
Irregular keywords often cause high redundancy in the same research topic. To address the issue, this paper proposes an improved keywords selection algorithm based on similarity calculation. It re-segments keywords using field dictionary and common-sense knowledge database thesaurus. When the total semantic similarity is greater than a given threshold, the two compared keywords are considered to express the same meaning, then merging and keeping only one of them in library,which achieves the purpose of the dimension reduction. Finally, experimental results show the effectiveness of the method.
Scientific literatureRedundancy;
Semantic similarity;
Feature reduction
在利用作者给定的关键词进行科学研究的过程中,由于关键词数量庞大,经常要截取词频较大的一部分进行分析。这种方法有一定的科学依据,但由于作者给定的关键词不规范,同一意义在关键词中会以多种形式出现,以词频的方式选取关键词会丢失大量有用的信息。如果在利用词频处理之前,先进行关键词之间的合并或修正,将关键词进行无损压缩,可以最大程度地保留所要分析的信息内容。1 研究背景本文的方法归结为语义特征降维。将作者给定的同一主题关键词组成最初的高维特征向量,选用一种合适的方式识别并合并同义词,实现关键词向量空间的有效降维。目前,基于语义的特征降维主要利用一些常识知识库如WordNet、知网、同义词词林等进行。Chua等[] 和Li等[]利用WordNet中提供的同义关系、上下位关系、部分整体关系等计算词与词之间的语义相似度进行特征降维。也有一些研究人员[,]将知网[]应用于中文文本表示降维研究。还有一些研究人员利用同义词词林进行同义词合并[],实现特征降维。以上的研究对象主要是新闻稿和社会科学领域的文档,利用常识知识库可以有效完成文本特征降维任务。但是,自然科学领域的科技文献会涉及到大量的领域词汇,这些词汇大都没有被常识知识库收录,仅利用这些常识知识库对科技文献进行相关的特征降维研究,效果并不是很好。本文提出一种利用N-gram算法获取领域词库,结合《知网》进行相似度计算,达到对科技文献关键词进行特征降维的目的。2 问题及解决方法2.1 科技文献关键词的特点及问题(1)相同意义的词汇写法多样,如算法和方法,原理和定理,选择、选取和筛选,量和值等,这些词都可以利用常识性词典如《知网》或WordNet通过语义计算后达到无损特征降维。(2)对于科技文献,很多专业词汇是几个一般词汇的组合,组合在一起表达一个完整的意义。这些专业词汇是某个领域的专用词,没有必要再进行切分,但这些词在常识性知识库中并没有收录,所以直接利用常识性词典进行语义计算不能完全解决实际问题。(3)有些领域词汇没有规范写法,一个意义的表示方法可能有几种,这几种都有可能用在关键词中,如“因特网”、“互联网”和“Internet”等。也有一些是简写和正式写法混用,如“自然语言处理”和“NLP”、“词频”和“TF”、“倒排文档频”和“IDF”等。这些关键词出现的频率几乎不相上下,在利用词频的方法进行特征选择时,两者都有可能被选入,错认为是两个独立的特征项,造成关键词向量的冗余。这些词合并后都可以无损地进行特征降维。但这些词在常识性词典中没有收录,直接利用常识性词典不能完全解决相似问题。2.2 解决办法及本文所提出的特征降维方法为解决关键词标引中出现的问题,国家标准GB/T 6[](学位论文编写规则)中要求每篇论文应“选取3-8个词作为关键词”,“尽量用词表提供的规范词”。许多期刊要求按照标准进行关键词的标引。但随着信息技术的飞速发展,词表不能及时跟上飞跃发展的科学技术,难以满足各专业的要求。为此,一些研究人员提出了提高关键词标引质量的方法:马开俊[]提出“有控制的关键词标引”,谭慧华[]提出“论文作者标引与专业标引人员标引相结合的方法”;郭淑敏[]提出利用辅助词表来提高关键词标引的质量。赵宗蔚[]提出采用自然语言与人工语言结合的后控制词表来提高期刊论文关键词标引质量等。针对由于关键词标引不当造成的冗余问题,本文提出一种新的关键词冗余解决办法。主要思想为:根据关键词冗余问题的特点,对己有的语义特征降维方法进行改进。在分析词与词之间的语义相似度时加入了提取领域词的过程;先进行简写和正式写法的合并,然后利用N-gram过滤算法构建领域词库。在计算词与词之间的语义相似度时,领域词作为整体来考虑,最后将计算所得的同义词加到同义词词典中,并且将这些同义词在向量空间中合并,实现关键词向量的特征降维。利用Java语言实现所提出的方法。实验部分下载自CNKI某一领域文献关键词。利用本文所提出的方法进行领域词库的构建。对原有关键词进行分词,区分为领域词和非领域词,并对这两种词分别进行计算。关键词之间的语义相似度是几个部分相似度的加权结果,计算结果大于一定阈值,则认为是表达同一意义的同义词。将这些同义词分别放到同义词词典中,并且在原有的向量空间中合并,以达到利用特征降维方法消除冗余关键词的目标。3 主要算法完成过程通过在同义词词典中加入领域术语简写和正式写法的同义词项,实现对这些意义相同的领域术语简写和正式写法的合并。针对领域术语的特点,选择具体的N-gram候选词条的长度范围,按照过滤效果为不同长度的候选词设置不同的阈值,大于阈值的词被选入领域词库。根据本文建立的领域词库将关键词分为不同的组,同一个组的关键词之间进行对比,组与组之间不再进行对比。在组内进行对比过程中,首先利用领域词库将关键词切分为三个部分:领域前缀、领域词和领域后缀,然后分别计算两两关键词之间领域前缀部分和领域后缀部分的相似度,综合得出关键词之间的相似度。给定一个阈值,将大于阈值的这些词视为同义词,选取其中一个作为标准词,其余放入同义词典,达到特征降维的目的。3.1 同义词词典生成同义词词典最初存放的是领域术语的简写和正式写法的同义词对照表。计算后所得的同义词也存入该词典中,为后续研究使用。同义词词典格式为每个同义词集合各占一行,最后一个为标准写法。同义词之间用固定分隔号分隔。本文使用的同义词合并算法流程如所示:图1
图1 同义词合并算法流程3.2 领域词库的确定N-gram是应用很广的统计语言模型,在语音识别[]、机器翻译[]、手写识别[]、拼音输入[]、信息检索[]、分词和词性标注[]等许多领域都有应用。本文利用N-gram算法确定领域词库。将关键词切分为2-gram, 3-gram,…,n-gram,具体最大值n的确定视领域术语的特点而定。利用过滤算法考察这些N-gram成为领域词汇的可能性,最终确定领域词库。领域词库生成算法如下:输入:作者所给的关键词列表AK输出:领域词库中间参数:N-gram片断中最大的词长为n,对于每个N-gram列表,粗过滤词频值为&#x003b1;n ,利用N-gram列表进一步过滤子串的参数为&#x003b2;n①对作者所给的关键词列表AK进行N-gram切分;②将长度相同的N-gram 切分词组成一个列表,把这个列表中频率值小于&#x003b1;n的词过滤掉,形成n-1个N-gram列表(分别为2-gram,3-gram,…,n-gram列表);③对于每一个列表,取每个候选词的词频&#x003b8;;④分别取候选词子串中的每个词及词频&#x003b8;';⑤如果&#x003b8;'-&#x003b8;<&#x003b2;n 时,在子串中过滤掉该词。如所示,当每一个候选词和候选子串中对应的词的比较阈值&#x003b2;n都定义为3时,“支持向量机”,“支持向量”和“向量”被作为领域词,其他子串被过滤掉;图2
图2 N-gram词串以及每个词对应子串⑥将N-gram列表中没有执行过滤操作的词选作领域词汇。3.3 语义相似度计算方法利用领域词库对关键词进行切词;利用一般分词程序对非领域词部分进行重新切分;切词后,将词表示为三个部分,分别为领域前缀、领域词和领域后缀。领域前缀指其他词位于领域词的左边,领域后缀指其他词位于领域词的右边。如:“树状贝叶斯方法”和“树形贝叶斯理论”二个关键词分别切分为:树状贝叶斯方法= 树状 + 贝叶斯 + 方法树形贝叶斯理论= 树形 + 贝叶斯 + 理论作者所给关键词= 领域前缀 + 领域词 + 领域后缀利用知网计算非领域词的语义相似度:设关键词W1经过切分后为三个部分W1l 、W1f 、W1r,关键词W2经过切分后为三个部分W2l、 W2f、W2r,其中W1f 和W2f 分别对应领域词。领域词和领域词相比较,领域前缀和领域前缀相比较,领域后缀和领域后缀相比较。前缀和后缀的比较利用常识库的相似度计算方法进行。只有当领域词相同时,才进行比较;领域词不相同时,认为是相似度很小的词,没有必要再进行前后缀的比较。本文提出用来计算两个关键词的语义相似度公式如下:S(W1,W2)= (1)3.4 特征降维的方法所给定的关键词没有必要一一对比,只有当分词后领域词一致时,这两个关键词才有可比性。计算每个领域词包含前后缀的相似矩阵,然后利用所给的相似性公式计算词与词之间的语义相似度,将语义相似度大于一定阈值的关键词视为同义词,将这些同义词存放到同义词词典中,以备计算时用。将这些同义词合并,完成特征降维过程。特征降维的具体实现算法如下:输入:作者所给的关键词列表AK输出:降维以后的关键词列表中间辅助变量: 每个领域词对应一个相似矩阵,这个矩阵中存放所有与本领域词相关的前后缀的语义相似度值。在关键词列表AK中为每个关键词设删除标志位。①利用相似矩阵,分别计算两个关键词对应的前后缀的相似度,再利用本文所提出的语义相似度计算方法加权计算整个相似度,最终所有关键词之间的语义相似度存放到N&#x000d7;(N-1)维的二维数组中,其中每一行数据存放某个关键词与其他N-1个关键词的语义相似度;②给定一个循环变量i,初始赋i=1;③判断i值是否大于N,如果是,执行第⑧步操作,否则取第i个关键词的删除标志位以及在二维数组中的第i行数据;④判断这个关键词删除标志位是否为1,如果是,说明这个词己被认定为其他词的同义词,没有必要进一步对比,取下一个关键词i=i+1,返回第③步,否则往下执行;⑤在对应的N-1维数组中取语义相似度大于阈值&#x003b4;的所有关键词Keyj,执行以下操作;⑥关键词Keyj存放到同义词词典中,并定义为Keyi的同义词;⑦在关键词列表AK中设置关键词Keyj的删除标志位为1,取下一个关键词i=i+1,返回第③步;⑧将AK列表中没有设为删除标志的关键词放到降维以后的关键词列表中,实现关键词的降维操作。4 实验及对比分析4.1 实验方法本文实验在32位的Windows 7系统平台下进行,利用Java语言实现关键词向量的冗余处理。通过Lucene建立索引和进行N-gram统计[,],利用imdict-chinese-analyzer[]进行非领域词分词,参照文献[21]设计非领域词的相似性对比计算,领域词之间相互独立,不再进行对比。实验数据从CNKI选取1 113篇主题词为“文本分类”的研究论文,从题录信息中提取作者给定的关键词1 731个。选中部分是与“K近邻”有关的关键词,前面的数字表示共有多少篇文章用到了这个关键词,可以看出作者给定的关键词的冗余程度之大,如所示:图3
图3 作者给定的部分关键词通过查看作者给定的关键词,将简写的领域同义词手工提取出来,生成同义词词典,所示是本文最初生成的领域同义词词典的一部分,同义词之间以分号分隔。图4
图4 领域同义词词典利用本文提出的方法进行领域同义词合并,上面选中部分可以合并为:K近邻法、K近邻算法、K近邻分类器和K近邻4个关键词,进一步的合并需要后续的相似性计算。利用N-gram算法提取领域词共129个,包括支持向量机、散度、本体、朴素贝叶斯、模糊、潜在语义、特征、K近邻、矢量、神经网络、贝叶斯、降维、隶属度和领域等。同时需要根据实际情况对这些计算得来的领域词汇进行细微调整。利用生成的领域词库以及知网知识库,按照式(1)计算相似度,利用提取流程识别同义词集合,并进行特征提取。对给定的1 731个关键词进行降维后,最终关键词为1 491个,压缩比为13.9%。4.2 对比分析在实验分析的关键词中选出6个关键词,从分词方法和矩阵存储量两个方面进行对比分析。从中可以看出:不加入领域词进行分词时,每个关键词会分成粒度非常小的几个普通词。本文利用N-gram算法提取领域词库,根据领域词库进行分词,领域词作为一个整体被提取出来,提高了分词的准确性。表1表1
表1 分词方法对比序号词一般分词本文分词一般相似计算本文相似计算1贝叶斯方法贝/叶/斯/方法贝叶斯/方法所有的词一一进行对比,并且分词颗粒太细,对比速度很慢。领域词相同时才进行对比。本例中序号1-4之间关键词对比;序号5-6之间关键词对比。2贝叶斯算法贝/叶/斯/算法贝叶斯/算法3贝叶斯理论贝/叶/斯/理论贝叶斯/理论4贝叶斯模型贝/叶/斯/模型贝叶斯/模型5隶属度矩阵隶属/度/矩阵隶属度/矩阵6隶属度向量隶属/度/向量隶属度/向量
表1 分词方法对比从中可以看出,利用一般的方法进行相似性对比时,需要将所有分词后的结果一一对比,而领域词本身相互独立,只在领域词相同时才会进行对比,用来对比的相似矩阵的辅助矩阵内存占用量大大减小。表2表2
表2 相似矩阵存储量对比贝叶斯方法算法理论模型向量矩阵贝xxxxxxxxxxxxxxxxxx叶xxxxxxxxxxxxxxxxxx斯xxxxxxxxxxxxxxxxxx方法xxxxxxxx10.440.17xxxx算法xxxxxxxxxx0.440.15xxxx理论xxxxxxxxxxxx0.17xxxx模型xxxxxxxxxxxxxxxxxx向量xxxxxxxxxxxxxxxx0.88矩阵xxxxxxxxxxxxxxxxxx(说明:整个矩阵表示一般方法占用的相似矩阵存储量,xx&#x0],颜色加深部分是本文使用的矩阵存储量。)
表2 相似矩阵存储量对比5 结 语本文的创新之处在于针对关键词冗余问题,在分析词与词之间的语义相似度时加入了利用N-gram算法提取领域词的过程;分词时领域词作为一个整体来对待,分词后每个关键词分为领域词部分和非领域词部分,如果领域词不相同,两个词不再对比;如果领域词相同,再进行非领域词部分语义相似度计算。利用这一改进的方法进行关键词的特征降维处理,有效地解决了关键词的冗余问题。并且和没有加入领域词库的相似性计算方法相比,减少了内存的使用量以及词与词之间对比计算的次数。不足之处在于:N-gram统计生成领域词汇时会出现一些垃圾词汇,需要手动去除;相似度计算公式还需要改进;程序还需要进一步优化,进一步改进词库存放格式和相似性对比的过程。
Chua S, Kulathuramaiyer N.
Semantic Feature Selection Using WordNet[C]. In: Proceedings of IEEE/WIC/ACM International Conference on Web Intelligence, Beijing, China. IEEE Computer Society, 2004: 166-172.
[本文引用:1]
Li X B, Szpakowicz S, Matwin S.
A WordNet-based Algorithm for Word Sense Disambiguation[C]. In: Proceedings of the IJCAI-95, Montreal, Canada. 1995: 1368-1374.
[本文引用:1]
熊忠阳, 付玲玲, 张玉芳.
文本分类中基于概念映射的二次特征降维方法[OL]. [2011-03-10]. http: //www. cnki. net/kcms/detail/11. 2127. TP. 35. 007. html?uid=WEEvREcwSlJHSldRa3JPV0dvSFpWamplRWN1SW9vVW91ZlRaY0xYV2cxZFMzVVkzTkpOemo1cXN6ckVhNGx3PQ==.
[本文引用:1]
唐歆瑜, 乐文忠, 李志成.
基于知网语义相似度计算的特征降维方法研究[J]. 科学技术与工程, 2006, 6(21): 3442-3446.
[本文引用:1]
董振东, 董强.
知网[DB/OL]. [2011-02-10]. .
[本文引用:1]
吕震宇, 林永民, 赵爽, 等.
基于同义词词林的文本特征选择与加权研究[J]. 情报杂志, 2008, 27(5): 130-132.
[本文引用:1]
中华人民共和国国家标准.
GB/T 6 学位论文编写规则[S]. 2006.
[本文引用:1]
数字化建设中文献信息主题标引方式管见[J]. 情报资料工作, 2004(Z1): 355-356.
[本文引用:1]
CAJ- CD 关键词标引质量探析[J]. 情报杂志, 2003, 22(3): 79-80.
[本文引用:1]
医学期刊编辑中的关键词标引[J]. 中华医学科研管理杂志, 2006, 19(3): 178-179.
[本文引用:1]
提高期刊论文关键词索引质量—自然语言与人工语言的结合[J]. 图书馆论坛, 2005, 25(1): 119-121.
[本文引用:1]
Jelinek F.
Continuous Speech Recognition by Statistical Methods[J].
[本文引用:1]
[JCR: 6.911]
Gao Y Q, Zhou B, Diao Z J, et al.
MARS: A Statistical Semantic Parsing and
Generation-based Multilingual Automatic Translation System[J].
[本文引用:1]
Koerich A L, Sabourin R, Suen C Y.
Large Vocabulary Off-line Hand writing Recognition: A Survey[J].
[本文引用:1]
[JCR: 0.814]
Zheng C, Kai F L.
A New Statistical Approach to Chinese Pinyin Input[C]. In: Proceedings of the 38th Annual Meeting of the Association for Computational Linguistics(ACL-2000), Hong Kong. 2000.
[本文引用:1]
Ponte J M, Croft W B.
A Language Modeling Approach to Information Retrieval[C]. In: Proceedings of the 21st International ACM SIGIR Conference on Research and
Development in Information Retrieval, New York, USA. 1998: 275-281.
[本文引用:1]
刘群, 张华平, 俞鸿魁, 等.
基于层叠隐马模型的汉语词法分析[J]. 计算机研究与发展, 2004, 41(8): 1421-1429.
[本文引用:1]
Lucene[EB/OL]. [2011-03-20]. .
[本文引用:1]
Kumar N, Srinathan K.
Automatic Keyphrase Extraction from Scientific Documents Using N-gram Filtration Technique[C]. In: Proceedings of the 2008 ACM Symposium on Document Engineering, Sao Paulo, Brazil. 2008: 199-208.
[本文引用:1]
ICTCLAS[EB/OL]. [2011-05-01]. .
[本文引用:1]
刘群, 李素建.
基于知网的词汇语义相似度计算[C]. 见: 第三届汉语词汇语义学研讨会, 台北. 2002.
[本文引用:1]
... Chua等[1] 和Li等[2]利用WordNet中提供的同义关系、上下位关系、部分整体关系等计算词与词之间的语义相似度进行特征降维 ...
... Chua等[1] 和Li等[2]利用WordNet中提供的同义关系、上下位关系、部分整体关系等计算词与词之间的语义相似度进行特征降维 ...
... 也有一些研究人员[3,4]将知网[5]应用于中文文本表示降维研究 ...
... 也有一些研究人员[3,4]将知网[5]应用于中文文本表示降维研究 ...
... 也有一些研究人员[3,4]将知网[5]应用于中文文本表示降维研究 ...
... 还有一些研究人员利用同义词词林进行同义词合并[6],实现特征降维 ...
... 1-2006[7](学位论文编写规则)中要求每篇论文应“选取3-8个词作为关键词”,“尽量用词表提供的规范词” ...
... 为此,一些研究人员提出了提高关键词标引质量的方法:马开俊[8]提出“有控制的关键词标引”,谭慧华[9]提出“论文作者标引与专业标引人员标引相结合的方法” ...
... 为此,一些研究人员提出了提高关键词标引质量的方法:马开俊[8]提出“有控制的关键词标引”,谭慧华[9]提出“论文作者标引与专业标引人员标引相结合的方法” ...
... 郭淑敏[10]提出利用辅助词表来提高关键词标引的质量 ...
... 赵宗蔚[11]提出采用自然语言与人工语言结合的后控制词表来提高期刊论文关键词标引质量等 ...
... N-gram是应用很广的统计语言模型,在语音识别[12]、机器翻译[13]、手写识别[14]、拼音输入[15]、信息检索[16]、分词和词性标注[17]等许多领域都有应用 ...
. ):185-212
1.IBM T. J. Watson Research Center
We present MARS (Multilingual Automatic tRanslation System), a research prototype speech-to-speech translation system. MARS is aimed at two-way conversational spoken language translation between English and Mandarin Chinese for limited domains, such as air travel reservations. In MARS, machine translation is embedded within a complex speech processing task, and the translation performance is highly effected by the performance of other components, such as the recognizer and semantic parser, etc. All components in the proposed system are statistically trained using an appropriate training corpus. The speech signal is first recognized by an automatic speech recognizer (ASR). Next, the ASR-transcribed text is analyzed by a semantic parser, which uses a statistical decision-tree model that does not require hand-crafted grammars or rules. Furthermore, the parser provides semantic information that helps further re-scoring of the speech recognition hypotheses. The semantic content extracted by the parser is formatted into a language-independent tree structure, which is used for an interlingua based translation. A Maximum Entropy based sentence-level natural language generation (NLG) approach is used to generate sentences in the target language from the semantic tree representations. Finally, the generated target sentence is synthesized into speech by a speech synthesizer. Many new features and innovations have been incorporated into MARS: the translation is based on understanding the mea the semantic parser uses a statistical model and is trained from a semantica the output of the semantic parser is used to select a more specific language model to refine the speech rec the NLG component uses a statistical model and is also trained from the same annotated corpus. These features give MARS the advantages of robustness to speech disfluencies and recognition errors, tighter integration of semantic information into speech recognition, and portability to new languages and domains. These advantages are verified by our experimental results.
... N-gram是应用很广的统计语言模型,在语音识别[12]、机器翻译[13]、手写识别[14]、拼音输入[15]、信息检索[16]、分词和词性标注[17]等许多领域都有应用 ...
. ):97-121
1.Departement de Génie de la Production Automatisée école de Technologie Supérieure (ETS), Université du Québec Montréal QC Canada 2.Centre for Pattern Recognition and Machine Intelligence (CENPARMI) Concordia University QC Montréal Canada
Considerable progress has been made in handwriting recognition technology over the last few years. Thus far, handwriting recognition systems have been limited to small and medium vocabulary applications, since most of them often rely on a lexicon during the recognition process. The capability of dealing with large lexicons, however, opens up many more applications. This article will discuss the methods and principles that have been proposed to handle large vocabularies and identify the key issues affecting their future deployment. To illustrate some of the points raised, a large vocabulary off-line handwritten word recognition system will be described.
... N-gram是应用很广的统计语言模型,在语音识别[12]、机器翻译[13]、手写识别[14]、拼音输入[15]、信息检索[16]、分词和词性标注[17]等许多领域都有应用 ...
... N-gram是应用很广的统计语言模型,在语音识别[12]、机器翻译[13]、手写识别[14]、拼音输入[15]、信息检索[16]、分词和词性标注[17]等许多领域都有应用 ...
... N-gram是应用很广的统计语言模型,在语音识别[12]、机器翻译[13]、手写识别[14]、拼音输入[15]、信息检索[16]、分词和词性标注[17]等许多领域都有应用 ...
... N-gram是应用很广的统计语言模型,在语音识别[12]、机器翻译[13]、手写识别[14]、拼音输入[15]、信息检索[16]、分词和词性标注[17]等许多领域都有应用 ...
... 通过Lucene建立索引和进行N-gram统计[18,19],利用imdict-chinese-analyzer[20]进行非领域词分词,参照文献[21]设计非领域词的相似性对比计算,领域词之间相互独立,不再进行对比 ...
... 通过Lucene建立索引和进行N-gram统计[18,19],利用imdict-chinese-analyzer[20]进行非领域词分词,参照文献[21]设计非领域词的相似性对比计算,领域词之间相互独立,不再进行对比 ...
... 通过Lucene建立索引和进行N-gram统计[18,19],利用imdict-chinese-analyzer[20]进行非领域词分词,参照文献[21]设计非领域词的相似性对比计算,领域词之间相互独立,不再进行对比 ...
科技文献关键词冗余解决方案研究

我要回帖

更多关于 注塑缺陷及解决办法 的文章

 

随机推荐