在十环大数据时代读后感的时代,有什么做不了的数据

大数据时代,几个例子告诉你什么叫大数据_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
大数据时代,几个例子告诉你什么叫大数据
上传于||暂无简介
阅读已结束,如果下载本文需要使用1下载券
想免费下载本文?
定制HR最喜欢的简历
你可能喜欢热门推荐:
  如果这个问题换做是:在电气时代,每家公司都要有个发电厂吗?是不是会更好回答一些?
  事实上每一种重大技术的出现,都会对产业产生大的变化。在蒸汽时代,采矿机采用蒸汽机后,会带来生产效率的极大提升,而轮船加上蒸汽机,再也不需要靠风才能航海了。在电气时代,电灯代替了蜡烛,电报代替了快马送信,而报纸也被广播和电视所侵蚀。
  可以说是现有产业加上新技术,形成了新产业。
  我们回过头来看这两次工业革命,生产蒸汽机的企业只有少量几家,而发电的企业在美国也只有通用电气和西屋电气。并不是每家企业都要从事这些基础设施的研发和生产,更多的是对新技术加以应用,发挥新技术带来的价值。
  在 IT 领域,软件刚出来时,可以说是计算和存储完全混杂在一起。有人尝试将计算硬件进行分离,歪打正着成就了 Intel。有人尝试将存储系统分离,因而有了 Oracle。
  Intel 和 Oracle 固然伟大,但它们的价值更多的还在于有广大的企业采用了这些新的技术,在具体的行业中,产生了更大的价值。
  同样,云计算这种理念固然是好,但如果每家企业都建立自己的云计算中心,从资金和人力投入上,一定是不划算的,更严重的问题是做不到最优。相反,有了 AWS 和阿里云这样的云计算提供商,让中小企业更便捷的进行创新应用。
  回到题目中的问题,在大数据时代,每家公司都要有自己的大数据部门吗?结论也不能下的太武断。
  早在 2008 年,云计算的概念刚刚兴起,百度内部出现了两拨势力。一拨要从零开始打造自己的大数据底层技术,把 MapReduce、GFS、BigTable 这些组件都要实现一遍,结果花了两三年时间,也没能稳定运行。
  而另外一拨势力,直接采纳开源的 Hadoop 生态,很快在公司内应用起来。而我当时做的日志统计平台,也是采用了 Hadoop。但百度的数据规模毕竟太大了,所需的集群规模,开源版本根本撑不住,于是不得不改写 Hadoop,这样就和开源的版本渐行渐远,等到后来再也合不到一起了。
  曾经有一年多的时间,我们部门新设计和实现和底层的存储及计算系统,结果发现开源的版本也差不多实现到了同样效果。虽然许多内部的人觉得我们怎么总重复造轮子,但我明白还是需求使然,你面临的需求相对领先,但也没有领先到像 Google 那样提早 5 年。
  但对于小公司来说,则完全没必要从零开始做,还是要尽量用开源的产品。
  整个 Hadoop 生态,要比我 2008 年刚用的时候,要成熟很多。那个时候我们去拿开源的版本,编译部署,一个新手可能两周都不一定能正常的运转起来。而现在下载一个 Cloudera 发行版,两个小时就可以正常跑任务了。
  与此同时,又面临了新的问题,因为大数据平台牵涉到数据的采集、传输、建模存储、查询分析、可视化等多个环节,而开源领域只是一些组件,于是各家公司都在纷纷打造自己的大数据平台,这就像 Oracle 之前,各家都在打造自己的存储系统。这显然不是一件性价比高的事情。
  有市场需求,就会有满足相应需求的公司诞生,于是就诞生了一堆提供大数据服务的公司。
  由于这一新领域还处于早期,这些创业公司所能提供的服务并不会特别的完善,要么是以项目制的方式运转,要么是提供专门应用场景的服务。
  这样,对于一些企业来说,这些创业公司提供的服务,似乎自己也能实现,那何不干脆自己做?
  这创业一年多以来,我看到了太多的公司在打造自己的数据平台,但做的还不够完善。不管是技术实力还是人力投入上,都有点力不从心。如果选用了这些第三方数据服务,那岂不饭碗被抢了?
  可我要说的是,饭碗早晚都会被抢,只是时间早晚的问题。这里只需要问一个问题:我所做的数据平台,是不是其他公司也是类似的需求?如果是的话,那肯定也有其他公司做着类似的事情,做的东西会大同小异。
  那么,就会出现专门的公司,来解决这种通用的需求。因为这些公司专注于解决这一块问题,所以会更加专业,并且舍得投入。而对于需求公司来说,除非自己转型去专门做大数据平台,不然在投入上,肯定不是一件性价比很高的事情。与其如此,不如及早侧重于自己的核心业务,关注应用需求本身。
  那对于企业来说,在大数据时代,应该怎么做呢?我的建议是三点:
  首先,要拥抱大数据技术。
  新的重大技术出现,都带有颠覆性。一不小心,就会被革命。但也不是说企业已有的业务不用搞了,都来搞大数据吧。
  在大数据这件事上,还是要从需求出发,而不是从大数据出发。
  有人会问我,我有了一些数据,给我讲讲怎么能发挥更大的价值。坦率来说,许多时候不了解业务场景,很难提出建设性的意见的。
  相反,我们要先看在企业满足客户需求的时候,还有哪些重大问题没有解决好,如果采用了大数据技术,是不是可以更好的解决?如果有这样的点,那非常好,就勇于去尝试。如果没有,那就继续学习大数据的知识,再等待这样的场景出现。
  其次,企业要有懂大数据的人。
  这种人不一定是全职的,但至少是可以将企业的业务和大数据技术结合起来的人。这种人不一定对大数据技术本身很懂,但善于使用新技术。
  如果企业现在还没有,并且还没招到。可以去培养一个头脑灵活,乐于学习新技术的人。如果抛开大数据系统的实现挑战,理解大数据的应用场景,那难度会降低不少。
  最后,要善于利用第三方服务。
  能用第三方服务解决的,就尽快去尝试。在竞争激烈的情况下,通过采用新技术,获得技术红利,跑的更快。就像爱迪生当年发明白炽灯后,那些更早将白炽灯用于工厂的企业家,更有可能提升工人的工作效率。
  这篇文章的内容,主要参考了吴军的新书《智能时代》。对大数据和机器智能感兴趣的读者,强烈推荐这本书。
  作者:牛透社特约撰稿人
请先登录再操作
请先登录再操作
微信扫一扫分享至朋友圈
崔牛会官方资讯平台,是国内最顶级的企业在线服务(2B)资讯...
知名IT评论人,曾就职于多家知名IT企业,现是科幻星系创建人
未来在这里发声。
新媒体的实践者、研究者和批判者。
立足终端领域,静观科技变化。深入思考,简单陈述。
智能硬件领域第一自媒体。热门文章最新文章&&&&违法和不良信息举报电话:183-
举报邮箱:
Copyright(C)2016 大不六文章网
京公网安备78解读《大数据时代》:为什么不是随机样本_创事记_新浪科技_新浪网
解读《大数据时代》:为什么不是随机样本
  文/唐人  在《大数据时代》一书中,迈尔-舍恩伯格给出了著名的关于大数据时代的三大特征:1)不是随机样本,而是全体数据;2)不是精准性,而是混杂性;3)不是因果关系,而是相关关系。本文解读一把为什么“不是随机样本,而是全体数据”。  为什么是随机样本?  首先什么是随机样本。如果你碰巧哪天在街头被人拦住做问卷调查,或者接到电话问卷调查,恭喜你,你成为某项统计分析的随机样本。  很显然,迈尔大叔所例举的美国人口普查以及有关细分领域分析预测不准确的例子,谈到的随机样本应该就是指问卷调查。或许随机样本是迈尔大叔在书中唯一展示其有关统计学知识的部分。  那么,为什么要用随机样本呢?原因有下:一是全体数据获取不可能或者成本太高。比如说你想知道北京有多少人吃过麦当劳,你不可能每个人都问一遍;二是有资源限制。如果你要在3天内给出答案,即使不计成本你也做不到去问每个人;三是没有必要。因为我们可能只是需要知道吃过麦当劳的人数在北京总人口中的百分比,而且允许一定的误差,所以只要随机取样,通过统计分析就能够得到比较满意的答案。  根据统计学原理,如果我们随机取样1000人进行问卷调查,如果结果是某种百分比,那么得到的结果在置信度95%时的误差应该在3%左右。  显然,在数据需要通过问卷调查的形式获取时,随机样本就成为我们的首选甚至是唯一的选择。  所以随机样本在小数据时代很流行。  为什么不是随机样本?  迈尔大叔对随机样本不高兴,原因有三:1)实现采样的随机性非常困难;2)当人们想了解更深层次的细分领域的情况时,随机采样的方法就不可取了;3)人们只能从采样数据中得出事先设计好的问题的结果。  白话一把迈尔大叔的内容。1)样本难以真正随机是因为你无法根据全体数据的分布去取样。比如说你电话调查,有电话的人口就已经不是随机的样本空间;2)如果你要进一步知道海淀区30岁以下女性吃过麦当劳的人口比例,结果误差就会超过预期;3)问卷以外的内容你是无知的。比如说你突然想要知道吃过麦当劳的人中有多少同时吃过肯德基但你却没有在调查中问这个问题,那你就甭想得到答案。  全体数据在哪儿?  我们已经处在大数据时代,如果你要了解北京有多少人吃过麦当劳,你会怎么做?  显然,麦当劳童鞋并没有为我们准备好必要的所谓全体数据。或许麦当劳能够告诉我们N多年来他们在北京地区卖出了多少个巨无霸,或许麦当劳会进一步告诉我们N多年来北京地区有多少人次光顾过麦当劳。可是,麦当劳却没有数据告诉我们现而今北京人有多少人吃过麦当劳。  看来现实世界比迈尔大叔想象的要复杂得多。告别随机样本,我们需要全体数据。可是,我们所需的北京地区吃麦当劳的全体数据存在吗?  未来这个全体数据会存在吗?也许,除非麦当劳必须先注册再购买。你认为麦当劳何时会实现先注册再购买呢?这样做真的有必要吗?  即使如此,你仍旧面临如何解决例如“究竟谁吃了全家桶”的问题。  全体数据是个抽象的概念。但涉及到具体问题,所需的全体数据很有可能并不存在,即使是在大数据时代。  要知道北京多少人吃过麦当劳,可能还是需要进行随机样本分析,哪怕是在大数据时代的今天。  看来即使是在大数据时代,我们还是无法告别随机样本分析。  何为全体数据?  在《大数据时代》一书中,全体数据是与随机样本相对立的概念。迈尔大叔这样描述道:“首先,要分析与某事相关的所有数据,而不是依靠分析少量的数据样本。”因而,全体数据明白无误地就是“所有的相关数据”。  如果我们想要知道“北京地区有多少人吃过麦当劳”,这个全体数据就应该是北京地区所有人吃麦当劳的情况。很遗憾,我们知道这个全体数据是不存在的。  看看《大数据时代》书中全体数据的一个案例:艾伯特-拉斯洛·巴拉巴西和他的同事想研究人与人之间的互动。于是他们调查了四个月内所有的移动通信记录——当然是匿名的,这些记录是一个为全美五分之一人口提供服务的无线运营商提供的。这是第一次在全社会层面用接近于“样本=总体”的数据资料进行网络分析。通过观察数百万人的所有通信记录,我们可以产生也许通过任何其他方式都无法产生的新观点。  迈尔大叔的这个全体数据是“一个为全美五分之一人口提供服务的无线运营商提供的”“四个月内所有的移动通信记录”。啥意思?说白了,就是一家移动公司四个月的通信记录。令人不解的是,虽然这仅仅是全美1/5人口四个月的通信记录,迈尔大叔却说“这是第一次在全社会层面用接近于“样本=总体”的数据资料进行网络分析。”  “全社会”与“全美1/5人口”,“样本=总体”与“四个月内所有的移动通信记录”,其间如何联系在一起?  还有,如果四个月的数据是全体数据,那三个月或者两个月的数据算不算全体数据呢?  看来貌似简单的全体数据,在迈尔大叔这里也不是那么简单。  全体数据的前世今生  上面案例中涉及的全体数据,实质上就是一家移动运营商数据库中四个月的通信数据。从《大数据时代》中对全体数据的诸多应用可以看到,迈尔大叔所说的全体数据,实际上就是我们通常所说的数据库数据。  “全体”或许只是指包含了数据库中所有的记录。  即使在互联网流行之前,因为有了计算机以及数据库技术,人类已经开始数据的记录和累积。特别是一些特殊的行业如银行、电信等,顾客的购买记录最先被完整地记录下来,从而构成了迈尔大叔所谓的全体数据。  这绝对是小数据时代的故事。也就是说,所谓全体数据并不是大数据时代的产物,全体数据在小数据时代就已经普遍存在了。  对所谓全体数据的分析以及基本的统计分析方法也是小数据时代的普遍现象。  被人们津津乐道的食品超市啤酒搭着尿布一起卖的故事,其数据来源甚至可能都不是所谓全体数据,因为食品超市并没有强求每个消费者都要注册后才能购买。  全体数据并不是我们想象的那样是“所有的数据”,甚至也不是迈尔大叔想象的那样是“所有相关的数据”。全体数据依旧是部分数据,比如说只包含了一家公司的顾客数据。全体数据依旧是取样数据,比如说上面案列中的四个月的取样。  谁说取样必须只是随机取样呢?  全体数据的分析误差  迈尔大叔对随机样本生气的一个主要原因,就是基于随机取样的分析与真实情况有统计误差,不准确。那么,有了全体数据,我们的分析结果就一定没有误差了吗?  假定我们确实有关于北京地区吃麦当劳的全体数据。是的,如果有了所谓的全体数据,关于单个变量的分析结果确实没有统计上的误差,实际上此分析也根本用不到统计学的概念。可是,我们花那么大精力搞一个全体数据,肯定不只是计算一些百分比,或者进行一些简单的单元分析。我们要用这个全体数据来做更多的事,比如说预测哪些顾客下次来会购买巨无霸。分析师会给我们一批顾客名单,告诉我们:这些顾客75%的可能下次购买巨无霸。  75%的可能?也就是说这个顾客还有25%的可能下次不买巨无霸。这就是分析误差。  事实是,除了单个变量的计算(对全体数据来说不是统计分析),全体数据在做任何统计分析时,分析结果都是概率性的,都有统计意义上的误差。  可是《大数据时代》给读者的印象是,只要用了全体数据,你就不用再担心误差了。  全体数据的取样  根据《大数据时代》,用了全体数据,我们就再也不需要取样了。事实果然如此吗?  有意思的是,在上面迈尔大叔给我们提供的全体数据分析的案例里,研究人员只取了数据库里4个月的数据。为什么只是4个月的数据?难道该企业的数据库只有4个月的数据?  当然不是!事实应该是研究人员从企业的数据库里之取样了四个月的数据。那么,为什么即使有了“全体数据”,研究人员还只取了其中四个月的数据?  因为对数据分析来说,绝对不是数据越多越好。即使我们拥有无与伦比的计算速度,过多的数据也会浪费研究人员的时间资源,不必要的数据甚至可能影响分析的结果。何况根据迈尔大叔的介绍,4个月的数据取样已足以得到满意的研究结果了。  看来有了全体数据,也有必要进行数据取样。  更多关于全体数据的取样  就上篇文章中迈尔大叔所举的那个全体数据的例子来说,分析人员只取了数据库中四个月的数据进行分析。为什么?因为分析的任务不是要得到数据库中每个顾客长期的人脉关系,而是通过一定时期内人际关系的分析,了解拥有不同人际关系的个人对整个社区关系网的影响。因此,适当的阶段性数据的取样就十分必要。  试想一下,如果研究人员采用了数据库中所有的数据,则可能将更多的人际关系发展的变化也包括进来,这反倒可能影响研究的结果。所以说,全体数据不加区别的应用并不一定是最佳的选择。  再举一个对全体数据进行取样分析的例子。早年我曾经做过一个搜索引擎算法分析的应用,原理就是根据随机取样的关键词,到各大搜索引擎(美国的)上去爬取搜索结果的网页,分析各种SEO技术对各搜索引擎网页排名的影响。时间长了,我所爬取的网页数据库也就成了迈尔大叔所谓的全体数据。我是不是应该每次分析时都使用所有的数据呢?当然不是。因为搜索引擎在不断改变其搜索排名的算法,如果我将已经过时的排名网页信息包括在我的搜索引擎排名关键因素的分析中,那就会适得其反导致分析结果的不准确。  迈尔大叔数次提起的有关飞机票价预测的数据分析,也存在着同样的情况。航空公司可能会改变其机票价格的决定机制。如果在票价预测分析中包含了已经过时的票价决定机制的信息,那分析的结果就会受到干扰而增加误差。  数据并非绝对越多越好。即使是全体数据,也要根据分析任务进行必要的取样。原因可能是多种,适当的取样是优化分析过程和分析结果的一种选择。而且,取样也不只限于随机取样。  全体数据的陷阱  第一个陷阱就是所谓全体数据,在绝大多数情况下并不是“全体”。我们来看看那些绝对重量级的互联网企业,它们最可能拥有所谓全体数据,比如说谷歌、百度、FACEBOOK、淘宝天猫,哪个公司的数据库能够被称为“全体”呢?  一个企业有了数据库,往往更愿意局限于自己的数据库来进行各种分析。有句老话叫做“种瓜得瓜种豆得豆”。这个全体数据分析的陷阱就是:如果你种的是瓜,你就分析不出豆来。  例如某新闻网站经常用很黄很暴力的新闻吸引网友下载它的新闻app。久而久之,其app的用户就可能是“黄衫军”了。如果这时你想通过这个“全体数据”的分析了解怎样在他们中间推销红汗衫,肯定是不妥的。  再举一个简单的例子。比如说你通过对全体数据的分析,得出某款商品是你顾客最喜欢的。但实际情况果真如此吗?或许顾客喜欢的商品根本就不在你的全体数据里,所以你再怎么分析也根本得不到你的顾客最喜欢什么样的商品。  外面的世界很精彩。你经常需要跳出全体数据,来体验外面世界的精彩。  全体数据与随机样本  随机样本与所谓的全体数据应该属于两个不同范畴的概念,两者并非杨白劳Vs黄世仁,阶级斗争不可调和。更重要的是,无论是随机样本,还是所谓的全体数据分析,都不应该是一个时代的代表。  事实是,即使拥有全体数据,随机取样的问卷调查分析也是需要的,甚至是必须的。  因为全体数据几乎都不是什么真正的“全体”数据,不可能包含所有我们想了解的信息,所以经常需要在全体数据的基础上获得更多的信息。其中一种来源是与其他“全体数据”对接,比如说在美国可以根据个人社会保险号对接个人信用信息;另一种方法就是在“全体数据”中随机(或用其他方法)选取部分样本,然后对这些顾客进行问卷调查,以补充数据库中缺失的信息,然后通过对接将问卷调查的信息融入到全体数据的分析中。  这样的分析迈尔大叔应该没有听说过,否则他就不会将随机样本与全体数据这样绝对地对立起来。但这样的分析却在小数据时代就被普遍应用了。  文章最后对随机样本和所谓全体数据做个总结:  1)迈尔大叔所谓的全体数据,在绝大多数情况下只是指企业的数据库数据;  2)对绝大多数问题,所谓的全体数据可能都不存在;  3)随机样本与所谓全体数据并不是你死我活的绝对对立,而是可以和平共处,甚至是相互补充;  4)绝大多数所谓对全体数据的分析方法,早在小数据时代就已经普遍存在;  5)随机样本分析在大数据时代也还会继续展示其存在价值;  6)即使是所谓的全体数据,往往也有必要通过取样进行更有效的分析;  7)注意全体数据的陷阱。分析所谓全体数据时,应该想到外面世界可能更精彩。
(声明:作者独家授权新浪网使用,请勿转载。本文仅代表作者观点,不代表新浪网立场。)
专业家居电商实践探索
《大数据时代》给出的大数据时代的第二个特征,是“不是精准性,…
周边谈论大数据的人越来越多,谈论《大数据时代》这本书的人也越…热门推荐:
声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
  大数据时代下的学术研究
  你准备好了吗?
  当今世界,搜索引擎带来了海量计算,互联网商业蓬勃兴起。对于学术研究者来说,上千种数据库、几十万种期刊、上亿篇文献,各种意义丰富的信息充斥着科研工作。海量视频、音频、报告、政策文本、吐槽与弹幕,甚至图片和处方,等等,知识更新迭代周期不断缩短。然而,海量、多元的数据来源并不等于精准的数据准备。
  如何全面、深入地挖掘文献资料?
  如何从繁杂的信息中辨别、甄选出有价值的内容?
  如何从数据资源库中发现学术研究的规律并得出结论?
  如何运用国际通用软件对视频、音频、文本、图片、web数据进行科学分析?
  如何运用前沿研究方法实现学术创新?
  这些都成为大数据时代学术研究者共同面临的严峻挑战。
  【大数据时代下的学术研究主题片】
  为全面提升学术研究者在大数据时代下的数据处理能力,提高信息素养,深度掌握国际最新研究方法,高等教育出版社在大数据时代下深度策划的“大数据时代下学术研究与信息素养系列研修”即将在2016年元月开启,诚邀您关注、参与我们的系列课程。
  01class
  研修(一):信息检索与知识管理必备高级素养
  时间:-20日
  地点:中国北京
  教师:北京师范大学 周颖副教授
  授课内容
  1如何快速精准获取重要学术资源,掌握研究前沿、热点与脉络;理清经典文献;获取权威报告等
  *网络高级检索强大的学术应用
  *CNKI、WOS、SCImago、Amazon在线书店,手机知网等关键资源库的高端使用方法
  *知网节、H指数、Releated Works、指数检索等高级功能,使文献越查越新、越查越广、越查越深
  2如何获取课题申报重要信息、明智选择投稿期刊
  3如何快速寻找、轻松管理、深度挖掘海量文献
  *运用文献管理软件EndNote和NoteExpress自动连接海量数据库,轻松下载海量文献
  *套用EndNote和NoteExpress软件自带期刊格式和模板进 行流水线写作
  4如何成倍提高阅读和梳理文献效率*思维导图MindManager在文献阅读中的三大功能
  5如何撰写符合高质量期刊要求的文献综述
  *高质量文献综述的经典类型、撰写原则、案例解析
  长按二维码进行研修报名
  02class
  研修(二):海量定性数据分析国际通用必备利器NVivo11
  时间:-22日
  地点:中国北京
  教师:Nvivo软件中文版审校人、北京大学 张冉副教授
  授课内容
  1哪些数据经常使用NVivo分析*质的研究与NVivo(访谈、临床案例、调查等)*政策研究与NVivo(政府报告、统计年鉴等)
  *视频研究与NVivo(录课视频、电视节目等)
  *网络数据研究与NVivo(移动媒体、论坛微博等)
  2如何运用NVivo对数据进行高效分析与挖掘
  *结构化整理数据,削繁去冗,加速分析
  *撰写备忘录跟踪分析,提高研究发现的透明度与可靠性
  *量化定性数据,揭示不同属性数据背后所隐藏的规律
  *可视化数据模型,清晰呈现数据规律,预测趋势
  *自动共享团队数据分析过程,及时互通更改
  *报告团队成员编码一致性水平,帮助改进编码策略
  3NVivo如何联手EndNote高效进行文献综述
  *对接文献管理软件,导入海量文献
  *利用编码快速提取文献重要信息,重新归纳组织
  *矩阵搜索迅速获取已有研究概况,发现研究空白
  长按二维码进行研修报名
  我们的课程设置将最大化满足学术研究者的需求,根据不同学习背景分级安排预习内容,在培训后有专家持续指导,还有学习社区推动共同研究,研修现场更有机会获得多款正版软件(NVivo、NoteExpress、MindManager)。更多大数据研修活动将陆续推出,敬请期待。
  转发此链接至三个学术相关微信群或QQ群,拍照或截图发至课程联系人,即可获得:
  *精美U盘*
  *无线鼠标*
  *现金大红包*
  (任选其一)
  快递我来,快乐您享!
  联系我们
  手机/微信:010-
  Email:jie..cn
  李雅悠
  手机/微信:010-
  地址:
  北京市朝阳区惠新东街4号富盛大厦1座15层
  高等教育出版社人文社科学术出版事业部
  福利来啦↓↓↓
  《大数据时代》
  维克托 & 迈尔 - 舍恩伯格 经典著作
  关注“社科学术圈”,回复“大数据”,免费获得该书电子版
  声明:
  1.转载请注明来源:中国教育信息化在线(cedictol)。
  2.本公众号所转载文章不代表我们认同其观点或证实其内容真实性,作者如果不希望被转载,请与我们联系,删除相关文章。
欢迎举报抄袭、转载、暴力色情及含有欺诈和虚假信息的不良文章。
请先登录再操作
请先登录再操作
微信扫一扫分享至朋友圈
中国高校校报协会副会长......
北京教育音像报刊总社评论部评论员.....
中国青少年研究中心首席专家
美国独立教育顾问协会认证顾问
中国人民大学政治学教授

我要回帖

更多关于 大数据时代是什么意思 的文章

 

随机推荐