谁能告诉我问问的敏感aabb的词语有哪些些?

我是一个高中都没有上完的小城男孩..打工我已经厌倦的词语..我到底能干什么!!!谁能告诉我..球一个项目_百度知道
我是一个高中都没有上完的小城男孩..打工我已经厌倦的词语..我到底能干什么!!!谁能告诉我..球一个项目
但人家不是活的好好的,你要想想!,难道还怕混不过他们,还有很多人没上高中,有知识!,还有很多人没文化!,你比他们有才能!!!!!!!你能上高中,就很不错了
其他类似问题
按默认排序
其他8条回答
报考一些夜校啊 或者考一些专业证(会记,电脑之类的) 成人高考也不错 想再读书或自我增值下
如果你有足够的商业头脑的话。。可以创业。。当然从小本做起。你要剖析你自己,问问自己到底能干什么,哪方面能发挥出自己的才能来。
读书,上夜校。无论你做什么工作最终都是在为他人打工。要不去上体校?当歌手?。。。。找出自己的喜好,自己的优点,每个人都有优点的。其实如果你电脑游戏玩得好的话也可以当职业电脑玩家啊。。。不过具体方法只能自己摸索了
乐观点,多想想未来,就知道自己要怎么做了!
继续读书撒,然后努力努力再努力,改变自己的命运撒
.先积攒你的创业资金。然后又了钱在干别的
商机要善于发现和把握
相信自己 找到优点。
词语的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁谁能告诉我与“亭台楼阁,笔墨纸砚”一样的词语?
10-01-03 & 发布
风雨雷电 花鸟鱼虫
请登录后再发表评论!
请登录后再发表评论!什么叫政治敏感词语
什么叫政治敏感词语
我有篇日志想放进QQ空间去,可是人家不让放!说其中有‘政治敏感词语’。我不知道!什么叫政治敏感词语?谁能告诉我,谁能教教我。让我学会、背熟、记住,往后不再给网卡添麻烦!可是没人当我的老师。也许有人懂得,所谓政治敏感词语有多少类、多少种、多少条儿、多少款儿;也清楚是什么部门儿颁布的、什么法令、什么文件、什么条文,都有哪些规定。更有人知道,如果违反了这些规定,会得到什么样的处罚;由什么衙门、什么官儿来执行!我要是知道了、学好了、弄清楚了、闹明白了该多好啊!那我就不会犯错误了。我不想犯错误,也不想让网管费心卡压,大家都省事儿何乐而不为呢?可是没人一篇、一章、一节地来教我!也没见过哪个有权利的机关,或部门出台这样一份完整的法令!不是说要讲法制吗?没有法怎么治!然而一些人就这样在执行着!这毫无疑问是要形成一种不良的风气儿,或许还应该称其为是一条恶劣的霸道特权!只要任何人有点儿权利,就会对弱勢人们说的话来个:‘你说的话中有政治敏感词语’,因而,就能把你卡压住,剥夺掉宪法赋予公民的言论自由权!谁能说不是如此呢?我不懂什么叫政治敏感词语。可我是个活着的人,人活着得要说话!要是我一说话就有卡我压我的东西而不许我说,这叫怎么个活法儿?人活着不能没有话语权!而要想得到话语权、活法儿权、或曰人权。就得先琢磨琢磨到底发生了什么事?到底是怎么码子事儿!我们又该怎么办?于是我就想:‘政治敏感词语’就像个‘法宝’,如同是个神通强大的魔杖!可它只掌握在某些人手里,用来对付广大的人民群众。让人民群众的心里话无处诉说!想到这儿,我觉得,这根魔杖似曾相识,不是今天才有的,只不过名称有所翻新罢了。其实我记得:新中国成立前,在四大家族、蒋家王朝、国民党统治时期,人民都要注意别多说话,只能说说吃喝拉撒睡;而‘莫谈国事’!‘国事’不就是政治吗?那个时候不许人民谈国事,说政治。你要说就会被反动统治阶级的爪牙、特务把你逮走,治罪处罚,酷刑致死!也许有人说,‘政治敏感词语’和‘莫谈国事’不一样。是呀!从字面儿上看可能不一样,可是你看看事实又如何:今天我们的国家领导们正在花大力气治理腐败,而腐败之所以难治,就在于腐败的贪官污吏们层层设防,把人民大众的检举揭发的条条渠道都给堵死了!反而各种检举揭发贪官污吏的材料,很快就有人转给了被检举揭发的贪官污吏的手中。人们有很多的问题上告无门走投无路,不都是被剥夺了发言的机会
和权利吗?重庆的打黑情况充分地证明了这些!这一情况不是国事吗?有些人充当贪官污吏的爪牙,它们不管三七二十一,你要谈这些就给你扣上个是:‘政治敏感词语’!而卡住你,憋死你!如此看来,政治敏感词语是不是,和‘国事’一词的意思有点儿一样啊!如果两者的意思要是差不多的话,谁要是把‘政治敏感词语’的帽子总往人民群众头上扣,而不许说话,可就是让贪官污吏们给当工具利用了!就蜕变成了贪官污吏们的爪牙走狗了。我说的也许有点儿邪乎,毕竟‘政治敏感词语’和‘莫谈国事’,是有着时代和时间上的距离的。性质上也不完全一样,那个时期是统治阶级和人民之间的敌我矛盾;现在应该说是人民群众和贪官污吏及新型资产阶级大资本家之间的内部矛盾!
琢磨起来,这‘政治敏感词语’还可以说是个很好的词语!用它完全能够搭成一座桥梁。让人民群众的声音下情上达;使老百姓的艰难困苦得到国家领导人知晓。国家领导们也就不会被只报喜不报忧、瞒上欺下的奸佞们给迷惑了!以便领导们作出正确的抉择。制定出符合国情民意的政策来。国家领导们和国家各有关部门,可以也应该规定几条象‘政治敏感词语’之类的法律条文!让人们好遵守一定的清规戒律。不能胡闹!比如:不许使用污言诟语谩骂国家领导人!尤其是对毛泽东这样伟大的人民领袖,绝对不允许随便辱骂!要是只允许骂毛泽东不允许骂邓小平,这是不公正的!要是只许说毛泽东前三十年干尽了坏事;后三十年邓小平干的都是好事。就更不应该了,是不对的,不符合事实的。国有国法家有家规,没有规矩不成方圆。我们不要搞因言获罪,制造文字狱!也不能完全由着所谓每个人的个性放任自流!国家有责任创造条件,让人民在谈说国事、家事、窗外事的时候,有一个宽松的氛围,和谐的环境。要摆事实讲道理行;耍混不可以。不过,制定的法规条文要少而精;要明确具体。要在全国公布,要让全国人民都知道,都明白,要叫大家好记好懂,有一个一致的认识。好执行。谁违反谁负责!真若是有了这样一套管理国家的好办法,我们国家的社会体制要比西方某些所谓民主自由国家的政体强百倍!不要听信那些叫嚷西方国家一切都好的人所言。那些人的心不是中国的,顶多是混血儿的。我们中国人不愿意过美国的日子。不喜欢它们的生活方式!我们认为:我们会把我们伟大的祖国建设的更漂亮更完美。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。现在大多90后的年轻人上网聊天流行一个字了那就是《晕》字…我个人对晕字从来没有用作假象的形容词…而且很反感…我是80后的人,有没有谁能告诉我,如何去掉对《晕》字的反感?我讨厌晕字…
现在大多90后的年轻人上网聊天流行一个字了那就是《晕》字…我个人对晕字从来没有用作假象的形容词…而且很反感…我是80后的人,有没有谁能告诉我,如何去掉对《晕》字的反感?我讨厌晕字…
晕的意思,就是无语,汗,就是你说了出乎意料的话才会说“晕”的,没有什么
习惯就好……只是心里很反感……可是又没事,心里作用
其他回答 (2)
晕的意思是对对方的话表示无语、无奈,是比较流行的,你能跟的上时代就不会反感了。
晕 = …

你不会对省略号也反感吧?
相关知识等待您来回答
社会/人文领域专家来自子话题:
如果技术只对现有产品起到优化作用,则依然是大企业的囊中之物。一般称之为改进性技术&br&如果技术能形成新的市场和产品形态,创业者机会更多,比如图形界面对于dos界面,触摸屏对于键盘。一般称之为破坏性技术&br&&br&&b&总的来说,语音识别和语义分析属于破坏性的技术,小身段的创业者更有机会成功。&/b&&br&&b&1 创新需要从小处入手,而非开始就大而全。&/b&&br&
最典型的失败案例是摩托罗拉铱星计划,&让用户从世界上任何地方都可以打电话&。高超的技术、全新的卫星系统,但从产品构想到推出耗时11年,再加上超高的价格以及移动通信的崛起,导致它远远脱离市场需求。&br&
突破性创新产品的初期市场很小,无法满足大公司的收入和增长要求,这决定了大公司流程和价值观不会选择创新为主业务,被安排做创新产品的人也会抵触它。小型创业团队的灵活性和生存压力更适配于初期市场的规模。&br&&b&
微软、IBM等大公司在语音上已投入很多年,还没可见的产出,不能因此说小公司没有资源更搞不定。 正是因为大公司从技术出发在做凭空想象的大东西,而小公司一般能从小的市场点切入,能够根据市场反馈持续调整,市场才是最好的驱动引擎,市场会带着小公司走向成功。&/b&&br&&br&&b&2 蛋糕不只是一家或几家公司的&/b&。&br&
语音是基础性的创新,会有一家或几家大公司积累了平台性的数据和技术,但最直接并给用户最多价值的,是各种各样的应用,它们是生态系统中最有影响力的部分。&b&&br&&/b&&br&&b&语音技术未来发展可想的几个阶段:&/b&&br&&b&1 作为文字输入的语音识别&/b&。&br&&b&
&/b&&b&属于改进性。&/b&从碎碎念的微博,到长篇大论的知乎、博客,都不会因为语音识别方便输入而产生全新的产品形态。会让微博更随意,随便喊一嗓子就能发,但很难催生新的产品类型。&br&&br&2 &b&作为交互模式的&/b&&b&语音识别&/b&&b&。&/b&&br&&b&是破坏性的。&/b&说话不需物理运动,解放了人的双手。相对于键盘,甚至触屏,都有明显的优势,是更懒、更自然、更简单的交互方式。比如以下场景:家里有个支持语音识别的控制中心,人懒洋洋的躺在沙发上,想看电视,喊一声,开空调,喊一声,随性所欲。这比到处找各种遥控器舒服太多。再往远一点看,当人工智能成熟,机器人普及的时候,语音是最理想的交互方式,我们像和家人一样和机器人交谈。&br&&br&&b&3 语义分析&/b&&br&&b&
毫无疑问,是完全颠覆的破坏性技术。&/b&&br&
让机器听懂人的语言,是只能不断接近的梦想。需要持续的积累大量的数据,数据多一点,优化多一点。&br&
一开始就以完全智能为目标的创新不靠谱。垂直领域、具体场景和局部的创新,会不断涌现,比如今天天气好不好,现在几点钟,哪个饭店好吃。。。。
如果技术只对现有产品起到优化作用,则依然是大企业的囊中之物。一般称之为改进性技术如果技术能形成新的市场和产品形态,创业者机会更多,比如图形界面对于dos界面,触摸屏对于键盘。一般称之为破坏性技术总的来说,语音识别和语义分析属于破坏性的技术,…
来自子话题:
人信春哥,姐信硅哥。
人信春哥,姐信硅哥。
来自子话题:
最近正好在做搜索,主动答&br&&br&首先整理一下我们在做分词的时候一些思考吧:&br&&br&中文分词算法大概分为两大类&br&&br&&b&a.第一类是基于字符串匹配,即扫描字符串,如果发现字符串的子串和词相同,就算匹配。&/b&&br&&br&这类分词通常会加入一些启发式规则,比如“正向/反向最大匹配”, “长词优先” 等策略&br&&br&&u&这类算法优点是速度块,都是O(n)时间复杂度,实现简单,效果尚可。&/u&&br&&u&也有缺点,就是对歧义和未登录词处理不好。&/u&&br&&br&歧义的例子很简单&长春市/长春/药店& &长春/市长/春药/店&.&br&未登录词即词典中没有出现的词,当然也就处理不好。&br&&br& ikanalyzer,paoding 等就是基于字符串匹配的分词。&br&&br&&b&b.第二类是基于统计以及机器学习的分词方式&/b&&br&&br&这类分词基于人工标注的词性和统计特征,对中文进行建模,即根据观测到的数据(标注好的语料)对模型参数进行估计,即训练。 在分词阶段再通过模型计算各种分词出现的概率,将概率最大的分词结果作为最终结果。常见的序列标注模型有HMM和CRF。&br&&br&&u&这类分词算法能很好处理歧义和未登录词问题,效果比前一类效果好,但是需要大量的人工标注数据,以及较慢的分词速度。&/u&&br&&br&ICTCLAS是基于HMM的分词库。&br&&br&我们在重构知乎搜索的时候,权衡标注工作量和性能,以及代码实现的复杂程度,我们考虑采用基于字符串匹配的分词方法&br&&br&&b&B. 除了标注量,准确率和效果的考量,分词粒度也是一个需要考虑的指标,&/b&&br&&b&&br&&/b&&br&这里有一个真实的例子,即&br&&u&&团购网站的本质是什么?&&/u&&br&这是一个知乎的问题,如果使用单一粒度的分词,如果我们有&br&&i&&br&&/i&&br&&i&团购&/i&&br&&i&团购网 &/i&&br&&i&网站 &/i&&br&&i&团购网站 &/i&&br&&i&本质 &/i&&br&&i&是 &/i&&br&&i&什么&/i&&br&&br&这些词在词典中,按最大匹配分词结果是&br&&u&“团购网站/的/本质/是/什么” &/u&&br&&u&&br&&/u&&br&当用户输入&br& “&u&团购网的本质&/u&” &br&分词结果是&br& “&u&团购网/的/本质&/u&” &br&团购网这个词显然是没有匹配的。&br&&br&同样,如果按最小匹配分词,会有类似的问题。&br&&br&因此,我们考虑基于字符串匹配的分词方法最好能够匹配出多粒度的结果,即&br&能分出&br&&u&“团购网站/团购/团购网/网站/的/本质/是/什么” &/u&&br&这样多粒度的结果。&br&&br&最终我们采用了&b&&i&ikanalyzer&/i&&/b&, &br&基于文本匹配,不需要投入大量人力进行训练和标注&br&可以自定词典,方便加入domain specific的词语&br&能分出多粒度的结果。&br&written in java.
最近正好在做搜索,主动答首先整理一下我们在做分词的时候一些思考吧:中文分词算法大概分为两大类a.第一类是基于字符串匹配,即扫描字符串,如果发现字符串的子串和词相同,就算匹配。这类分词通常会加入一些启发式规则,比如“正向/反向最大匹配”, “长词…
来自子话题:
&blockquote&可以认为编辑扮演了了繁体中文到简体中文的「译者」的角色吗?如果是这样,为什么不把编辑的名字也署在「译者」上?&/blockquote&把「吃飯」改成「吃饭」不是翻譯工作;把「記憶體」改成「存儲器」是翻譯工作。&br&&br&不過,不是做了翻譯工作就是「譯者」的。是不是「譯者」,是否有資格署名爲譯者,取決於這個人的工作對作品的影響程度。事實上,編輯在做翻譯書的案頭工作時,如果他懂相關的這兩種語言,幾乎總是要做一些翻譯工作的。如果原譯稿質量極差,編輯做了大量修改和重譯,那他完全可以要求署名。但這不是正常的狀況,是編輯不得不替不合格的譯者完成工作。&br&&br&具體到繁體到簡體的問題上,這個修改量通常不會太大,並且多數是機械性的替換,所以雖然做了翻譯工作,卻不能稱爲「譯者」。&br&&blockquote&任意两种语言之间都能借由机器翻译满足这个假设,那还会有「译者」的存在吗?&/blockquote&老問題了。我有個標準答案:翻譯是一種寫作。&br&&br&機器翻譯能否取代人工翻譯?我不知道。我知道的是,要想實現機器翻譯,一定要&b&&u&至少&/u&&/b&先實現機器寫作。&br&&br&機器寫作有可能滿足我們所有的閱讀需求嗎?屆時,人類還需要「作家」嗎?我同樣不知道,但這是不是讓上面那個問題顯得簡單了呢?
可以认为编辑扮演了了繁体中文到简体中文的「译者」的角色吗?如果是这样,为什么不把编辑的名字也署在「译者」上?把「吃飯」改成「吃饭」不是翻譯工作;把「記憶體」改成「存儲器」是翻譯工作。不過,不是做了翻譯工作就是「譯者」的。是不是「譯者」,是…
题主的问题太多了,每个展开都可以讲很多~&br&作为自然语言处理(NLP)方向的研究生,我来回答一下题主关于自然语言处理如何入门的问题吧,最后再YY一下自然语言处理的前途~&br&&br&有点话我想说在前头:&br&不管学什么东西,都要跟大牛去学,真正的大牛可以把一件事解释的清清楚楚。&br&If you can't explain it simply, you don't understand it well enough.&br&跟大牛学东西,你不会觉得难,一切都觉得很自然,顺利成章的就掌握了整套的知识。&br&不过很遗憾,大牛毕竟是少数,愿意教别人的大牛更少,所以如果遇到,就不要强求语言了吧~&br&&br&开始进入正题,我将介绍如何从零基础入门到基本达到NLP前沿:&br&&br&----------NLP零基础入门----------&br&&br&首推资料以及唯一的资料:&br&&br&Columbia University, Micheal Collins教授的自然语言课程&br&链接&& &a href=&http://www.cs.columbia.edu/~mcollins/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Michael Collins&i class=&icon-external&&&/i&&/a&&br&&br&Michael Collins,绝对的大牛,我心目中的偶像,这门课是我见过讲NLP最最最清楚的!尤其是他的讲义!&br&Collins的讲义,没有跳步,每一步逻辑都无比自然,所有的缩写在第一次出现时都有全拼,公式角标是我见过的最顺眼的(不像有的论文公式角标反人类啊),而且公式角标完全正确(太多论文的公式角标有这样那样的错标,这种时候真是坑死人了,读个论文跟破译密码似的),而且几乎不涉及矩阵表示……(初学者可能不习惯矩阵表示吧)。&br&最关键的是,Collins的语言措辞真是超级顺畅,没有长难句,没有装逼句,没有语法错误以及偏难怪的表示(学术圈大都是死理工科宅,语文能这么好真实太难得了)。《数学之美》的作者吴军博士在书中评价Collins的博士论文语言如小说般流畅,其写作功底可见一般。&br&&br&举两个例子,如果有时间,不妨亲自体验下,静下心来读一读,我相信即使是零基础的人也是能感受到大师的魅力的。&br&1.语言模型(Language Model)&br&&a href=&http://www.cs.columbia.edu/~mcollins/lm-spring2013.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.columbia.edu/~mcolli&/span&&span class=&invisible&&ns/lm-spring2013.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&2.隐马尔可夫模型与序列标注问题(Tagging Problems and Hidden Markov Models)&br&&a href=&http://www.cs.columbia.edu/~mcollins/hmms-spring2013.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.columbia.edu/~mcolli&/span&&span class=&invisible&&ns/hmms-spring2013.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&&br&&br&现在Michael Collins在coursera上也开了公开课,视频免费看&br&链接&& &a href=&https://www.coursera.org/course/nlangp& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Coursera&i class=&icon-external&&&/i&&/a&&br&比看讲义更清晰,虽然没有字幕,但是不妨一试,因为讲的真的好清楚。&br&其在句法分析与机器翻译部分的讲解是绝对的经典。&br&&br&如果能把Collins的课跟下来,讲义看下来,那么你已经掌握了NLP的主要技术与现状了。&br&应该可以看懂部分论文了,你已经入门了。&br&&br&----------NLP进阶----------&br&&br&Collins的NLP课程虽然讲的清晰,不过有些比较重要的前沿的内容没有涉及(应该是为了突出重点做了取舍),比如语言模型的KN平滑算法等。&br&此外,Collins的课程更注重于NLP所依赖的基础算法,而对于这些算法的某些重要应用并没涉及,比如虽然讲了序列标注的算法隐马尔可夫模型,条件随机场模型,最大熵模型,但是并没有讲如何用这些算法来做命名实体识别、语义标注等。&br&&br&Stanford NLP组在coursera的这个课程很好的对Collins的课进行了补充。&br&链接&& &a href=&https://www.coursera.org/course/nlp& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Coursera&i class=&icon-external&&&/i&&/a&&br&&br&本课程偏算法的应用,算法的实现过的很快,不过上完Collins的课后再上感觉刚刚好~&br&(这两门课是Coursera上仅有的两门NLP课,不得不佩服Coursera上的课都是精品啊!)&br&&br&----------进阶前沿----------&br&&br&上完以上两个课后,NLP的主要技术与实现细节就应该都清楚了, 离前沿已经很近了,读论文已经没问题了。&br&想要继续进阶前沿,就要读论文了。&br&NLP比起其它领域的一个最大的好处,此时就显现出来了,NLP领域的所有国际会议期刊论文都是可以免费下载的!而且有专人整理维护,每篇论文的bibtex也是相当清晰详细。&br&&br&链接&& &a href=&http://www.aclweb.org/anthology/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ACL Anthology&i class=&icon-external&&&/i&&/a&&br&&br&你可以挑自己感兴趣的领域,读一读近几年的论文,对感兴趣的作者跟踪一下他近几年的工作,这就不再多说了~&br&只提一点,目前NLP领域最顶级的会议是ACL,中稿率只有20%左右,能中一篇那是相当值得炫耀的事,所以ACL论文的质量大部分也都很不错(当然哪里都有灌水的),读一读多少会有收获的。&br&&br&-------------------------&br&&br&最后简单谈一下哪个更有发展潜力……作为一个NLP领域的研究生,当然要说NLP领域有潜力啦!&br&&br&这里YY几个未来可能会热门的NLP的应用:&br&&b&语法纠错&/b&&br&目前文档编辑器(比如Word)只能做单词拼写错误识别,语法级别的错误还无能为力。现在学术领域最好的语法纠错系统的正确率已经可以做到60%了,部分细分错误可以做到90%以上,转化成产品的话很有吸引力吧~无论是增强文档编辑器的功能还是作为教学软件更正英语学习者的写作错误。&br&&br&&b&结构化信息抽取&/b&&br&输入一篇文章,输出的是产品名、售价,或者活动名、时间、地点等结构化的信息。NLP相关的研究很多,不过产品目前看并不多,我也不是研究这个的,不知瓶颈在哪儿。不过想象未来互联网信息大量的结构化、语义化,那时的搜索效率绝对比现在翻番啊~&br&&br&&b&语义理解&/b&&br&这个目前做的并不好,但已经有siri等一票语音助手了,也有watson这种逆天的专家系统了。继续研究下去,虽然离人工智能还相去甚远,但是离真正好用的智能助手估计也不远了。那时生活方式会再次改变。即使做不到这么玄乎,大大改进搜索体验是肯定能做到的~搜索引擎公司在这方面的投入肯定会是巨大的。&br&&br&&b&机器翻译&/b&&br&这个不多说了,目前一直在缓慢进步中~但我们已经能获益,看越南网页,看阿拉伯网页,猜个大概意思没问题了。此外,口语级别的简单句的翻译目前的效果已经很好了,潜在的商业价值也是巨大的。&br&&br&不过……在可预见的近几年,对于各大公司发展更有帮助的估计还是机器学习与数据挖掘,以上我YY的那些目前大都还在实验室里……目前能给公司带来实际价值的更多还是推荐系统、顾客喜好分析、股票走势预测等机器学习与数据挖掘应用~
题主的问题太多了,每个展开都可以讲很多~作为自然语言处理(NLP)方向的研究生,我来回答一下题主关于自然语言处理如何入门的问题吧,最后再YY一下自然语言处理的前途~有点话我想说在前头:不管学什么东西,都要跟大牛去学,真正的大牛可以把一件事解释的…
来自子话题:
siri一年前推出,并没有掀起太大的浪。
&br& 但是如今,siri成为了iphone的一部分,那么这的的确确可以说是一个革命。
&br& 这场革命的关键不在siri,而在于iphone整合了siri。
&br&&br& 这是对于人机交互的一场革命
&br& 就如同iphone的推出,使得触摸这一种新的交互方式大爆炸似地融入我们生活一样
&br& siri的整合,将标志着未来人机交互将进入全新的语音交互的时代
&br&&br& siri并不完美,但是正如一代iphone不完美一样,我们3年后再回头看今天
&br& 这的确是一场革命,一场苹果领导的革命
siri一年前推出,并没有掀起太大的浪。 但是如今,siri成为了iphone的一部分,那么这的的确确可以说是一个革命。 这场革命的关键不在siri,而在于iphone整合了siri。 这是对于人机交互的一场革命 就如同iphone的推出,使得触摸这一种新的交互方式大爆炸似地…
要将自然语言交给机器学习中的算法来处理,通常需要首先将语言数学化,词向量就是用来将语言中的词进行数学化的一种方式。&br&&br&
一种最简单的词向量方式是
one-hot representation,就是用一个很长的向量来表示一个词,向量的长度为词典的大小,向量的分量只有一个 1,其他全为 0, 1 的位置对应该词在词典中的位置。但这种词表示有两个缺点:(1)容易受维数灾难的困扰,尤其是将其用于 Deep Learning 的一些算法时;(2)不能很好地刻画词与词之间的相似性(术语好像叫做“词汇鸿沟”)。&br&&br&
另一种就是你提到 Distributed Representation 这种表示,它最早是 Hinton 于 1986 年提出的,可以克服 one-hot representation 的缺点。其基本想法是:&br&
通过训练将某种语言中的每一个词映射成一个固定长度的短向量(当然这里的“短”是相对于 one-hot representation 的“长”而言的),将所有这些向量放在一起形成一个词向量空间,而每一向量则为该空间中的一个点,在这个空间上引入“距离”,则可以根据词之间的距离来判断它们之间的(词法、语义上的)相似性了。&br&&br&
为更好地理解上述思想,我们来举一个通俗的例子:假设在二维平面上分布有 N 个不同的点,给定其中的某个点,现在想在平面上找到与这个点最相近的一个点,我们是怎么做的呢?首先,建立一个直角坐标系,基于该坐标系,其上的每个点就唯一地对应一个坐标 (x,y);接着引入欧氏距离;最后分别计算这个词与其他 N-1 个词之间的距离,对应最小距离值的那个词便是我们要找的词了。&br&&br&
上面的例子中,坐标(x,y) 的地位相当于词向量,它用来将平面上一个点的位置在数学上作量化。坐标系建立好以后,要得到某个点的坐标是很容易的,然而,在 NLP 任务中,要得到词向量就复杂得多了,而且词向量并不唯一,其质量也依赖于训练语料、训练算法和词向量长度等因素。&br&&br&
一种生成词向量的途径是利用神经网络算法,当然,词向量通常和语言模型捆绑在一起,即训练完后两者同时得到。用神经网络来训练语言模型的思想最早由百度 IDL (深度学习研究院)的徐伟提出。 这方面最经典的文章要数 Bengio 于 2003 年发表在 JMLR 上的 A Neural Probabilistic Language Model,其后有一系列相关的研究工作,其中包括谷歌 Tomas Mikolov 团队的 word2vec (&a href=&/p/word2vec/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&word2vec -
Tool for computing continuous distributed representations of words.&i class=&icon-external&&&/i&&/a&)。&br&&br&
最近了解到词向量在机器翻译领域的一个应用,报道(&a href=&/archives/5621& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器翻译领域的新突破&i class=&icon-external&&&/i&&/a&)是这样的:&br&&blockquote&&i&谷歌的 Tomas Mikolov 团队开发了一种词典和术语表的自动生成技术,能够把一种语言转变成另一种语言。该技术利用数据挖掘来构建两种语言的结构模型,然后加以对比。每种语言词语之间的关系集合即“语言空间”,可以被表征为数学意义上的向量集合。在向量空间内,不同的语言享有许多共性,只要实现一个向量空间向另一个向量空间的映射和转换,语言翻译即可实现。该技术效果非常不错,对英语和西语间的翻译准确率高达 90%&/i&。&/blockquote&
我读了一下那篇文章(&a href=&http://arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&),引言中介绍算法工作原理的时候举了一个例子,我觉得它可以帮助我们更好地理解词向量的工作原理,特介绍如下:&br&
考虑英语和西班牙语两种语言,通过训练分别得到它们对应的词向量空间 E 和 S。从英语中取出五个词 one,two,three,four,five,设其在 E 中对应的词向量分别为 v1,v2,v3,v4,v5,为方便作图,利用主成分分析(PCA)降维,得到相应的二维向量 u1,u2,u3,u4,u5,在二维平面上将这五个点描出来,如下图左图所示。类似地,在西班牙语中取出(与 one,two,three,four,five 对应的) uno,dos,tres,cuatro,cinco,设其在 S 中对应的词向量分别为 s1,s2,s3,s4,s5,用 PCA 降维后的二维向量分别为 t1,t2,t3,t4,t5,将它们在二维平面上描出来(可能还需作适当的旋转),如下图右图所示:&br&&img src=&/469f1bba1ab261_b.jpg& data-rawwidth=&1211& data-rawheight=&445& class=&origin_image zh-lightbox-thumb& width=&1211& data-original=&/469f1bba1ab261_r.jpg&&观察左、右两幅图,容易发现:五个词在两个向量空间中的相对位置差不多,这说明两种不同语言对应向量空间的结构之间具有相似性,从而进一步说明了在词向量空间中利用距离刻画词之间相似性的合理性。
要将自然语言交给机器学习中的算法来处理,通常需要首先将语言数学化,词向量就是用来将语言中的词进行数学化的一种方式。 一种最简单的词向量方式是 one-hot representation,就是用一个很长的向量来表示一个词,向量的长度为词典的大小,向量的分量只有一…
做了多年机器学习,说一下自己的看法。&br&&br&我觉得,是否公开代码,这取决于圈子内长久以来形成的环境。&br&&br&机器学习、计算机视觉领域都算是比较好的,如果算法实现不是太容易,作者基本都会在主页上公布代码,即使没公布,你发个邮件要,作者肯定会给的(反正我没见过不给我代码的)。要是算法就20行MATLAB,真心没必要挂出去,你也没必要找人家要。&br&&br&数据挖掘、信息检索这些领域的环境似乎没那么好(我不是地图炮,别喷我)。这些领域代码通常都很长很不好实现,而且通常不公开代码。尤其是某些研究院,以公司保密要求等为理由拒绝提供代码。更恶心的是,他们的实验是在自己公司的数据上做的;在这些公司想要公开数据,确实要经过层层审批,很麻烦的,这倒是不忽悠。现在问题来了,不公开数据、不公开代码,读者重复不了实验,究竟是谁的责任?我一个朋友告诉我,他认识一个人,WWW的ddl前一周开始写,实验不做,直接画个表往里编数据。最后中没中我不知道,但这事足以说明,圈子内不公开数据和代码的生态环境给了一些人大胆造假的勇气。&br&&br&至于是否公开参数和调参数方法,这个很大程度上取决于作者的人品。很多人都会在论文里写清楚怎么调的,代码里也有demo,用起来不难。但是我也亲眼见过不厚道的人。几年前我一个朋友在做视觉的一个问题(不是深度学习,应该没那么难调),在重复一篇paper的实验,调了1个月,结果还是差几个百分点。发邮件问作者要参数,作者说找不到参数了。我们都觉得这paper是谎报结果,建议这哥们放弃,但他不信邪,又调了很久,结果还是那样。&br&&br&我的结论是:&br&1. 如果代码实现起来容易,也不难调参数,真的没必要公开代码。&br&2. 如果代码复杂,上人家主页找,找不到就果断发邮件要,作者通常会给代码。不给肯定有猫腻,你可以在paper里说“没有和XX对比,原因是作者拒绝提供源代码”。&br&3. 如果是某些公司的研究院做的,数据和代码都不公开,就别去follow了。他们造假毫无代价,你重复不出来他们的结果的。&br&4. 参数调不好,重复不出结果,要果断发邮件问作者,不要闷声自己调。看了作者的回复,基本就知道是你的问题还是作者的问题。
做了多年机器学习,说一下自己的看法。我觉得,是否公开代码,这取决于圈子内长久以来形成的环境。机器学习、计算机视觉领域都算是比较好的,如果算法实现不是太容易,作者基本都会在主页上公布代码,即使没公布,你发个邮件要,作者肯定会给的(反正我没见…
来自子话题:
&img src=&/9e175bd82ebc1b75c9f2d17d5fedf766_b.jpg& data-rawwidth=&480& data-rawheight=&800& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&/9e175bd82ebc1b75c9f2d17d5fedf766_r.jpg&&&br&&br&—————&br&之前只放了一张图竟然获得这么多赞。。。&br&用了有一段时间了,最大的感受是,除了正常的生活语音助手功能之外,小娜更像一个真实的人,而不是一个冰冷的机器。比如唱歌是真的唱出来的,而不是念出来的。&br&再贴两张:&br&&img src=&/e2a290bbdf7_b.jpg& data-rawwidth=&480& data-rawheight=&800& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&/e2a290bbdf7_r.jpg&&&img src=&/f9a2ce82c42f334e21bbbb305ee7a268_b.jpg& data-rawwidth=&480& data-rawheight=&800& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&/f9a2ce82c42f334e21bbbb305ee7a268_r.jpg&&
—————之前只放了一张图竟然获得这么多赞。。。用了有一段时间了,最大的感受是,除了正常的生活语音助手功能之外,小娜更像一个真实的人,而不是一个冰冷的机器。比如唱歌是真的唱出来的,而不是念出来的。再贴两张:
来自子话题:
因为她是Cortana,她不是一个人在战斗&br&&br& Cortana呼叫E419…… &br& 吉他手士官长着陆完毕…… &br& 尤猪号音响设备空投完毕…… &br& 战斗网络电讯部署完成……&br& Cortana正在建立子程序…… &br& 建立中……&br& 建立完成…… &br& 士官长.我发现星盟大部队正在向舞台集结……&br&.
正在定位……… &br& 定位完成……..&br& 陆战队鼓手、贝斯手空投完毕
作战网络部署连线中…… &br& 士官长........Let's rock and roll……
因为她是Cortana,她不是一个人在战斗 Cortana呼叫E419…… 吉他手士官长着陆完毕…… 尤猪号音响设备空投完毕…… 战斗网络电讯部署完成…… Cortana正在建立子程序…… 建立中…… 建立完成…… 士官长.我发现星盟大部队正在向舞台集结…….
正在定位……
1、 《自然语言处理综论》(Speech and Language Processing: An
Introduction to Natural Language Processing, Computational Linguistics and
Speech Recognition)
&br&   这本书的权威自不用说,译者是冯志伟老师和孙乐老师,当年读这本书的时候,还不知道冯老师是谁,但是读起来感觉非常好,想想如果没有在这个领域积攒多年的实力,是不可能翻译的这么顺畅的。这本书在国内外的评价都比较好,对自然语言处理的两个学派(语言学派和统计学派)所关注的内容都有所包含,但因此也失去一些侧重点。从我的角度来说更偏向于统计部分,所以需要了解统计自然语言处理的读者下面两本书更适合做基础阅读。不过这本书的N-gram语言模型部分写得非常不错,是SRILM的推荐阅读参考。
&br& 2、《统计自然语言处理基础》(Foundations of Statistical Natural
Language Processing)
&br&   我比较喜欢这本书,这两年的学习过程中也经常拿这本书作为参考,可能与我做统计机器翻译有关吧。看china
pub上的评论说这本书的翻译比较差,自己的感觉是还行。当然,这是国内翻译图书的一个通病:除了很难有翻译的非常好的书外,另外一个原因就是滞后性。如果e文足够好的坏,就及时看英文版吧。这本书在统计基本部分的介绍很不错,另外n元语法部分讲得也比较好,也是SRILM的推荐阅读。
&br& 3、《统计自然语言处理》
&br&   这是北京自动化所宗成庆老师今年5月出版的一本专著,我有幸较早的阅读了这本书的很多章节。一个很强的感觉是:如果你想了解相关领域的国内外最新进展,这本书非常值得一读。上面两本书在由于出版稍早的缘故,很多领域最新的方法都没有介绍。而这本书刚刚出版,宗老师对国内外现状把握的也比较好,因此书中充分体现了这方面的信息。另外统计机器翻译这一部分写得很详细很不错,这可能与宗老师亦是这个领域的研究者有关吧。
&br& 4、《计算机自然语言处理》
&br&   这是我最早看的一部自然语言处理方面的书籍,和上面几部大部头的书籍相比,这本书很薄,可以很快的看完。书的内容我都有点忘了,但是印象中可以在每个章节看到国内这个领域的研究历史和相关单位。这时才发现母校HIT在这个领域的超强实力,只是可惜这时候已经离开冰城了。
&br&   这些书籍怎么读都行,泛览也罢,精读也行,只要有时间,多读书是没坏处的。我自己的经验是,先泛泛的浏览或阅读一篇,对于比较晦涩的部分可以先跳过去,然后对自己感兴趣的领域或者将要从事的领域的相关章节进行精读,当然,书籍一般在开始的几个章节讲些基础性的知识,这部分最好也仔细揣摩一下。真正要对自己研究的领域深刻了解,还得好好读一下本领域的相关论文。
1、 《自然语言处理综论》(Speech and Language Processing: An
Introduction to Natural Language Processing, Computational Linguistics and
Speech Recognition) 这本书的权威自不用说,译者是冯志伟老师和孙乐老师,当年读这本书的时候,还不知道…
来自子话题:
从用户这个人,到互联网站点,中间要经过很多步骤,每一个步骤都可能成为竞争的切入点。&br&比如网站层、搜索引擎层、浏览器层面、APP层面、OS层面以及硬件层等等。任何一层都可以作为重要的切入点,可惜的都已经有巨头在做,市场竞争非常激烈,中国移动没什么空间。&br&另外还有一些小的切入点,比如导航站、输入法、安全管理软件等等。可惜的是这些切入层面的粘性都偏低,市场空间就小,不值得中移动这样的巨头做。&br&&br&还有什么地方是可以切入互联网、粘性够大、市场空间充分,同时还没有很多竞争的?&br&&br&那就是比硬件层更基本的层级,介于机器和人之间的那个交互层。&br&这个交互层现在有键盘、鼠标、触摸屏、姿态识别比如Wii这样的。可惜要么技术已经成熟,要么也有一些大的巨头在做了,中国移动并无优势。&br&唯独语音交互这个方向最有前途,靠谱的竞争对手不多。&br&&br&作为接入口的语音交互是什么概念?&br&在最理想情况下,一切人机交互的信息都要先从科大讯飞的平台上过一遍。无论百度、Google、苹果、小米、Office——一切能够想象到的巨头,都是生存在电脑、手机和互联网上的,而中国移动在信息到达电脑、手机和互联网之前,就先拦截了。&br&成功的语音识别技术会成为所有接口的接口,就像是Dos时代的键盘,Windows时代的鼠标,比苹果的触摸屏更先进,是每个人人通向信息网络的第一道关卡。&br&你能想象这个市场空间吗?&br&&br&科大讯飞可能不是世界上最好、最先进的语音识别技术公司,但综合各方面考虑,这确实是中国移动最便于切入的一个地方。同时考虑到这项技术的巨大投入和漫长的商业化应用,科大讯飞也非常需要中国移动这样的大财主来撑腰。&br&&br&我觉得这是非常有眼光的战略投资。中国移动抓到了为数不多的属于自己的机会。&br&&br&&br&补充一个技术细节。&br&语音识别的基本原理是用海量样本数据调教识别模型,显然在中国能拿到的最海量、最贴近语音识别需要的样本,就是中国移动网络上无数的通话语音。即便科大讯飞不能直接用这些语音信息,获取一些衍生的技术和数据支持还是很容易的。&br&除了钱,还有数据和技术支持,几乎完美的战略合作。&br&————————————————————————————&br&融合产品现在恐怕还谈不上,科大讯飞的技术应该还没有完善到能够成熟商业应用的阶段。&br&但是将来一定会有的,而且会是非常牛逼的产品。
从用户这个人,到互联网站点,中间要经过很多步骤,每一个步骤都可能成为竞争的切入点。比如网站层、搜索引擎层、浏览器层面、APP层面、OS层面以及硬件层等等。任何一层都可以作为重要的切入点,可惜的都已经有巨头在做,市场竞争非常激烈,中国移动没什么…
来自子话题:
siri你听我解释!你不要报警啊喂!!!&br&&img data-rawheight=&306& data-rawwidth=&640& src=&/d654e3a0ef_b.jpg& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/d654e3a0ef_r.jpg&&&img data-rawheight=&288& data-rawwidth=&640& src=&/3a296afb9d491a13ab3a2_b.jpg& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/3a296afb9d491a13ab3a2_r.jpg&&忘发之前的一张了……抖。(??_?`)
siri你听我解释!你不要报警啊喂!!!忘发之前的一张了……抖。(??_?`)
来自子话题:
如果你们开发者想要找风投来投资项目的话,我找到了 396 家风投,其中四家离你们很近哦……&br&===========&br&这个真心不知道……&br&&br&既然说到开发者了,你们知道换一个灯泡需要几个开发者么?一个都不需要,因为这是个硬件问题。&br&===========&br&软件开发者的局限啊,开发者互相吐槽用&br&&br&我看到好多熟面孔啊,看来 Instagram 终于接受了 Facebook 的好友请求……&br&===========&br&FB收购 Instagram&br&&br&你们中有人在开发 Ice Cream Sandwich(冰淇淋三明治,Android 4.0 的版本代号)程序么?Android家那些版本代号是谁搞出来的?Ben & Jerry(美国著名冰淇淋视频制造商)?&br&===========&br&吐槽ANDROID最新版本号……&br&&br&不过说实话我确实相当期待三星生产的……不是手机,而是……电冰箱。&br&===========&br&吐槽三星生产的手机(前些日子三星刚刚发布了下一代ANDROID旗舰手机)
如果你们开发者想要找风投来投资项目的话,我找到了 396 家风投,其中四家离你们很近哦……===========这个真心不知道……既然说到开发者了,你们知道换一个灯泡需要几个开发者么?一个都不需要,因为这是个硬件问题。===========软件开发者的局限啊,开发…
来自子话题:
启明不是做在线教育的,是做跟教育考试相关的信息化解决方案的。&br&&br&
讯飞收购它最直接的原因在于:启明有一块重要业务是英语口语考场的解决方案,其中的核心就在于需要有机器进行语音识别并打分的系统,讯飞是做这个的,在全国也是做得最好的,居于半垄断的地位,但毕竟不是只有讯飞一家能够提供这个东西,所以启明在采购中有一定的选择权和议价权。讯飞收购它能产生明显的协同效应:交易成本下降了,并且讯飞在这个领域的市场地位也得到巩固和提高。&br&&br&
从更大的背景上说,讯飞目前在公开市场上的市盈率很高,这意味着资本市场对它未来盈利增长的期望很大,然而依靠讯飞自身体系内生的增长很难支撑这样的盈利预期,来自资本的压力很大,所以讯飞沿着自己的产业链开展兼并收购也就成为必然。好在讯飞手握20个亿现金,有条件这么去做。&br&&br&
最后稍微多说点跟问题不大相干的。讯飞目前的股权比较分散,主要创始人在其中占的股份比例很低,在资本层面对公司缺乏控制力,这会使得公司对来自资本的压力更为敏感,未来恐难避免管理层出现一些短期行为。
启明不是做在线教育的,是做跟教育考试相关的信息化解决方案的。 讯飞收购它最直接的原因在于:启明有一块重要业务是英语口语考场的解决方案,其中的核心就在于需要有机器进行语音识别并打分的系统,讯飞是做这个的,在全国也是做得最好的,居于半垄断的地…
来自子话题:
出门问问语音识别以前用的是科大讯飞,谷歌,和云知声,现在用的是自主开发的。在线下生活服务信息这个垂直领域,出门问问自主开发的语音识别准确率超越其它引擎。出门问问是一个技术驱动的海归团队,完整拥有自主的语音识别,语义分析,和应用内容搜索核心技术。
出门问问语音识别以前用的是科大讯飞,谷歌,和云知声,现在用的是自主开发的。在线下生活服务信息这个垂直领域,出门问问自主开发的语音识别准确率超越其它引擎。出门问问是一个技术驱动的海归团队,完整拥有自主的语音识别,语义分析,和应用内容搜索核心…
Python在这方面的package非常齐全:&br&&br&网页爬虫: scrapy(不太清楚)&br&数据挖掘: numpy, scipy, matplotlib, pandas(头三个是业界标准,第四个模拟R)&br&机器学习: scikit-learn, libsvm(极好)&br&自然语言处理: nltk(极好)
Python在这方面的package非常齐全:网页爬虫: scrapy(不太清楚)数据挖掘: numpy, scipy, matplotlib, pandas(头三个是业界标准,第四个模拟R)机器学习: scikit-learn, libsvm(极好)自然语言处理: nltk(极好)
来自子话题:
siri的核心技术是自然语言人机交互。语音识别部分采用别家公司的技术。
&br&&br& 语音识别=我知道你说什么
&br& siri个人助理=我理解你说什么
&br&&br&&b&更新&/b&
&br& SIRI最初是SRI公司内部的一个研究项目,并且有美国军方DARPA的科研资金支持,后来独立出来商业化。估计最初目的是机器人和人的交互接口。结合了一系列的技术包括:语音识别,自然语言处理和语义分析,情景分析和服务代理。
&br&&br& SIRI个人虚拟助理的功能就是从你说的话中,分析出你的指示,然后分发到它对应的几十种代理功能中,包括定饭店座位,订机票,代发邮件,查新闻等。
&br&&br&&i&
&br&&i&根据WSJ去年的新闻中提到的SIRI的使用范例,你对着iphone说,“告诉我老婆,我会迟到20分钟” Siri会自动搜索用户的社会网络地址簿和其他程序,发现标记“老婆”的联系人,将你说的内容「我会迟到20分钟」发一份短信到她的电话。&/i&
&br&&br& 说到难度,单从自然语言分析来说不大,起码google,微软等公司肯定有这些技术,国内的科研机构也可以做到。SIRI技术优越之处可能是集合时间地点等情景分析,但不会很神奇。至于语音识别部分,用了最好的公司的识别引擎也没问题。服务代理就只是开发层面的问题。
&br&&br&&b& SIRI的出色之处应该是各项技术的集成。 和iphone的卓越是一样的,各个模块如何最好的揉合在一起。it just works!&/b&
siri的核心技术是自然语言人机交互。语音识别部分采用别家公司的技术。 语音识别=我知道你说什么 siri个人助理=我理解你说什么 更新 SIRI最初是SRI公司内部的一个研究项目,并且有美国军方DARPA的科研资金支持,后来独立出来商业化。估计最初目的是机器人…
来自子话题:
最好的是trados(塔多思),全球联网的术语库,但是要钱还是什么。国内现在做CAT的有雅信什么的。
&br& 作为全球专业翻译领域的标准工具,塔多思(TRADOS)系列工具已经成为业界的标准,其核心技术——翻译记忆(Translation Memory)是目前世界上领先的专业翻译领域的计算机辅助翻译技术。实践证明,应用塔多思解决方案后,用户的翻译工作效率提高了30%~80%,翻译成本降低30%~60%。
&br&&br&产品特点: &br&1、 基于翻译记忆的原理,是目前世界上最好的专业翻译软件,已经成为专业翻译领域的标准。 &br&2、 支持57种语言之间的双向互译 &br&3、 大大提高工作效率、降低成本,提高质量。 &br&4、 后台是一个非常强大的神经网络数据库,保证系统及信息安全。 &br&5、 支持所有流行文档格式,用户无需排版。(DOC,RTF,HTML,SGML,XML,FrameMaker,RC,AutoCAD DXF等等) &br&6、 完善的辅助功能,如时间、度量、表格、固定格式的自动替换等能够帮助客户大大提高工作效率 &br&7、 目前已经垄断了翻译&本地化公司,是国内所有的外企、国内大型公司和专业翻译人员的首选。 &br&8、 专业的技术支持及开发中心 &br&9、 15年的成长历史使塔多思不断完善和丰富,满足客户的需求。 &br&&br&TRADOS为专业翻译提供完整的解决方案,本软件包内含以下模块: &br&&br&Translator’s Workbench:与MS Word 97/2000无缝集成,用户在熟悉的Word环境中进行交互翻译。 Workbench利用后台强大的神经网络数据库,为用户储存并管理原文和译文,实现对译文的部分自动翻译,动态提示相关译文语句,自动保留原文格式。此外,一整套翻译项目管理功能,帮助用户有效管理项目。
&br&&br&WinAlign:帮助用户回收已有的翻译资料,通过对原文和译文的比较和匹配,建立起翻译记忆库(Translation Memory),直接供Workbench使用,实现对知识的管理和再利用。
&br&&br&TagEditor:完美的网页翻译解决方案。与Workbench协同工作,应用翻译记忆库直接实现网页的翻译。通过对网页(HTML/SGML/XML/ASP/JSP)文件的格式保护,大大减轻了网页翻译过程中的再制作工作。 &br&&br&S-Tagger:用于转换Adobe FrameMaker 和 Interleaf文件格式,使用可在熟悉的Word环境中处理这两种特殊格式文档。 支持文件格式:DOC、RTF、HTML、SGML、XML、ASP、JSP、FrameMaker、Interleaf、RC、Quake Express、AutoCAD(DXF) 。
&br&&br& 具体下载,在电驴上有,而且它介绍得也挺详细的,&a href=&/topics/2814065/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/topics/28140&/span&&span class=&invisible&&65/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
&br&&br& 这上面介绍了各大机辅翻译软件:&a href=&/topics/2874405/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/topics/28744&/span&&span class=&invisible&&05/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
最好的是trados(塔多思),全球联网的术语库,但是要钱还是什么。国内现在做CAT的有雅信什么的。 作为全球专业翻译领域的标准工具,塔多思(TRADOS)系列工具已经成为业界的标准,其核心技术——翻译记忆(Translation Memory)是目前世界上领先的专业翻译领…
来自子话题:
目测一大堆Python粉正在赶来
目测一大堆Python粉正在赶来

我要回帖

更多关于 aabb的词语有哪些 的文章

 

随机推荐