如何大储存量狸窝全能视频转换器为小储存量的

大脑能够储存多大的数据量?假如大脑是一台计算机,那么最高运算速度是多少?
求具体数据。
今年3月Nature有一篇文章,分析了小鼠大脑的13个神经元的结构,用了上TB的数据。想象一下我们总共有十亿个神经元……*补充:好像很多人理解错了我说上面的数值的意思。要想估算数据量这个问题,我们需要给出上限和下限。对于下限的数据量好说,比如有人背过圆周率多少位。那么我们把圆周率那么多位这个信息,按照Komogrov complexity求出其信息含量,比如说,是10k bits。那么我们就可以说,存在一个人,他的脑能储存的数据量,大于这10k bits但是显然靠背诵只能调动出很少的一部分脑功能。于是我们不妨考虑一下上限。比如@苏椰同学就提出了神经元个数这个指标。(感谢@苏椰修正,人是10^11,我之前说的那个数是恒河猴的统计。。。)。我之所以说13个神经元用掉上TB的数据,是想给大家一个主观感觉。每个神经元到底有多复杂——换句话说,并非我们用一两个比特,就能完全描述一个神经元的功能与特性。因为每个神经元的形态、突触位置都千奇百怪。(平均来说,每个神经元有上千个突触)。然而,这样复杂的结构并非不可精确刻画,如果我们的采样精度到了如上所说的精度,大家普遍认为,神经元的功能就可以完整刻画了。所以我给出这些数据,最主要的目的是以严谨的逻辑给出一个upper limit。换言之,这个数值,不是无穷大。====这贴争论很激烈,特在此澄清一下====我还真没有说我是phd我有理的意思。我之所以很崩溃,原因是@朱松清 所举的几乎所有例子都不足以支撑他的一个新理论,而我每次提出质疑的时候他又完全没有正面回答我的意思。我们不妨就从“无脑人”展开来说。我之所以反感“无脑人”这种说法,是因为该说法极具误导性。那些患者并非无脑,而是患有如下一种病:这种病使得脑内的空腔尺寸变得异常的大。(我们每个人脑内都有小的空腔,只不过正常人非常小)。空腔变大意味着白质产生病变。*关于灰质和白质,顺便copy paste一段:大脑是由上百亿个神经元组成的,而神经元又是由细胞体和神经纤维组成的,细胞体中有细胞核(颜色深),神经纤维中有细胞质(颜色浅)。在大脑中细胞体聚集在大脑表层,看起来颜色深,叫做脑灰质;而神经纤维聚集在大脑内部,看起来颜色浅,叫做脑白质。但是它对细胞体在大脑表层的计算能产生多大的影响,还是不得而知的事情。唯一可以确定的是,至今人类还没发现一例皮层受损后该区域功能未受损的案例。所以,我非常反对用“无脑人”这种说法。@朱松清所说的“全息理论”,很大程度上是根据二十世纪初叶神经生物学刚刚起步时候的一些观测来的。其核心观点是,神经元联合在一起协作,才能形成某种功能。她说的实验是切掉小鼠的一部分大脑,发现小鼠还活着。于是就推而广之了。这样的说法,在微观上我们能找到神经生物学上的类比物。因为神经网络本身就是不稳定的,有的时候细胞会凋亡。但是死去一个细胞,并不应该对局部微通路产生什么影响(这里我说的微通路是10^4左右个细胞组成的微小网络,记住我们总共有10^9数量级的神经元)这些观测(关键词:population coding)以及相关的计算模型(关键词:Hopfield network, Boltzmann machine)也已经提了将近有半个世纪了。而且我本人也搞过一阵这方面的编码。但是他过于发挥了这些概念,同时又没有拿出任何实质性的内容,以至于我认为这些内容远远超过了“科学探索”的限度。其中,我最不能同意的是,他的整个理论,完全不理会近一个世纪的神经生物学的探索与发现。神经系统的功能是复杂的。从整体上看,根本不存在他说的那种鲁棒性。比如有一个文章生动地解释了我的意思,强烈推荐你读一下:现在人们公认的理解是,大脑分了许多区,每个区所管辖的功能相对独立。比如你后脑勺那个区叫做“初始视觉皮层。这个区的神经元排布非常规律,每个子区域负责一小块儿视觉空间,而再微观地看,每个子区域又可以规律地进一步细分成对于不同方向、不同颜色、不同远近的物体特征进行分析的基本单元。这种特异性能强到什么程度呢,比如你可以参考我去年总结过的这篇文章:这里面大部分的特异性问题,都已经通过正统的神经生物学研究很好地解释了。所以,在有足够多的理由出现之前,我很难接受一个全新的,否定现有科学的理论出现。再形而上地说,科学分两部分,理论归纳与实验现象。实验是客观的。哪怕是最革命性的理论(如相对论),也都不会和实验相左。而当大量自洽的理论结合在一起的时候,它出错的可能性要远低于一个横空出世的新理论。这就是为什么我宁愿相信科学,也不愿意相信存在一个上帝,或者是一个没有任何实验基础,但却万能的“场理论”,来解释我知道的全部神经生物学现象。有很多关于Tesla的科幻想法(抱歉我实在无法认为这些想法是科学的),都说人脑实际上是连到了宇宙某处的中央处理单元,就像电脑终端连到服务器一样。我感觉@朱松清也抱有类似观点。那么,摆在任何人面前的选择就有三种。Hypothesis1. 意识像神经生物学描述的那样Hypothesis2. 意识就像终端机,连接到宇宙深处Null Hypothesis. 两个假设都不对在这其中,H1 能够自洽地解释大量已有的观测。这也是我相信它的原因。option 2 听起来很有意思很创新很具有革命性。但是我们至今没有发现任何物理形式能够达成网线之于终端机一样的功能,把人的神经元集群活动,远距离地传送到别的地方。况且,就算是解释了“终端”,那我们是不是还需要另外一个理论来解释“主机”呢?——如果说“主机”是作为“终端”连到另外一个“主机”,那就循环论证了。。。如果大家有任何疑问,欢迎进一步交流。
我不认为我直接回答了问题,因此不介意将我折叠。大脑可以储存的数据量,理解成记忆的容量比较合适。关于记忆,有一个认知心理学观点说的很有道理,有意义的记忆应该是可提取的记忆,就好比硬盘上的内容被误删,如果无法恢复,即使仍然存在硬盘上,也是无意义的。记忆的内容如果无法提取,也是没有意义的。人类的记忆大致分为长时记忆和短时记忆。长时记忆的容量,暂时无解。你可以用单词量的方式来衡量,但是问题在于,怎样就算存储了?是你把所有单词都能复述出来?还是你能认出多少单词?人的记忆量跟提取方式有关系;此外,单词会被遗忘的,也就是说人脑会根据重要性来降低某些不重要内容的权重,但如果有合适的线索,这个单词又会被回忆起来。记忆的复杂性和多维度,导致了在这个问题上无法像衡量计算机一样去简单的等价。短时记忆倒是有研究结果的,认知心理学有研究表明短时记忆的容量是7(如果没记错的话是7,任何一本认知心理学或实验心理学都有这个研究,就不上文献了)。至于运算速度,我都懒得去这么想。。。-------------------------------------其实我更想吐槽的是,为何要用计算机的实现方式去衡量大脑的参数指标,二者的工作原理不一样,实现架构不一样。我们何不反过来提个类似问题,已有的知识表明大脑的功能是分区侧重的,有的脑区负责运动信息处理,有的脑区负责颜色信息处理;那么我问“计算机cpu有多少个信息处理的功能分区,各个通路的等级是怎样的,分层是怎么实现的,功能柱结构是怎么组织的?”懂点计算机组成原理的人都会觉得这个问题很别扭吧。鉴于提问本身有问题,必然也不会引出太多有意义的,来自专业人士的讨论。分歧倒是会造成很多,但多来自于参与讨论者神经科学基础知识的不足,从这个角度上来说,我很同情 ,费半天口舌,还被人喷“只要phd,说什么都有理”。很多人不愿意读点书,只想来知乎耍嘴炮,认为自己有基本的思考能力(是不是真有还有疑问),就可以叫板专业人士;还有些其它领域的专业人士,也很愿意来掺合一下。大家都觉得物理数学领域民科多,而生物领域,心理学领域,医学领域,民科就相对少。殊不知,这是因为大家普遍觉得,我们都是生物,都有心理,能思考嘛,那我们就不是民科,就都可以blabla说一堆,就可以随意用“我感觉,我朋友,我亲戚”开头来知乎回答这些领域的专业问题了。。。对专业领域没有一点基本的尊重,还能不能愉快的聊天了嘛。。。吐槽完毕,有想了解神经科学主流观点的,尤其是从神经元,神经通路,神经网络,信息处理,意识实现之类的角度,可以去看看“the astonishing hypothesis”(惊人的假说)这本书,发现DNA双螺旋结构的沃森和克里克里的那个克里克写的。强烈建议想打嘴仗的,先读点书再来!不然专业人士们都懒的跟你讨论。。。
看了下回复,发现很多人都是用电脑来反推人脑,把计算机方面的概念和模型往人脑上套,本末倒置了吧。
大脑的神经元数量级是10^11,其间的连接数量级是10^14,这点并没有错。 但是大脑是存在 主频的。该主频大约是40Hz. 又由于每次 运算事实上是把 一个神经元所有的 树突汇总 再散布到轴突上 所以还要再乘以一个10^3 所以考虑到大脑的等效运算量。 大约是 10^19数量级。 比目前的CPU大约强了 10^9 倍。 比最强的GPU 大约强了 10^7倍。 但是大脑是较强耦合的 GPU是极弱耦合的。 目前的难点还是在于数据的连接和传递的问题。 事实上。电脑已经开始接近人脑了。
大脑不能类比单个计算机,只能类比计算机网络,你能说因特网的运算速度有多快么?这个数据其实无意义,节点数和连接度才是反应网络规模的指标。对于网络,我们不能仅仅把各个节点的硬盘容量相加得到总数据量,因为还有大量数据处在网络间的流动之中。
大脑存储的,应该是一堆函数的参量。并不是某个神经元记忆什么东西,而是一堆神经元联合起来告诉你对什么输入该给什么输出,个别的神经元破坏不一定会损坏记忆,但是当破坏的神经元个数超过一个阈值以后会有大量记忆一起破坏。
人脑虽然有很多神经元,但是对神经元的使用是一种很浪费的方式,并不是一个突触连接就能表示一比特,通常都是一组神经元组成一个功能单元,处理一类信息。大脑完成简单逻辑运算就需要几千个神经元组成的功能单元,而计算机只需要几个晶体管。人脑的使用效率和具体的用法有很大关系,会用和不会用会有数量级的差别。每个人并不是天生就善于使用大脑,大部分用法都是后天学习训练出来的,这些学习大部分是无意识的,在七岁以前完成的,“三岁看小,七岁看老”是有科学依据的。人脑是一个自组织系统,有一套机制自己控制自己的运行,心理学上叫做“元认知”,人脑的能力是元认知系统决定的,每个人的元认知系统都是不同的,是先天功能结构和后天信号刺激共同决定的,而不是与生俱来的,即使同卵双胞胎也会有所不同。大脑中是不分数据和算法的,算法是连接,数据也是连接,算法可以变数据,数据也可以变算法,而计算机系统严格区分指令和数据,这是计算机系统不能具有智能的根本原因之一。
我们感受到的这个世界的一切信息,并不是我们的感官能够接收到的信息的总合,而是人脑能够处理的信息的总合,人脑处理能力来不及处理的信息就被简单丢弃掉了,因此计算一下人脑能够处理的信息量就能够大致估计出人脑的处理能力。我们获得的大部分信息来自视觉,有人以为视觉的信息量非常大,这其实是一种误解,人脑不象电脑,不需要处理像素,用象素数/帧数换算出来的信息量并非人脑需要处理的信息量,因为人的视觉只有在黄斑区域才是清晰的。我们能看清周围的一切是个假像,事实是我们只能看清黄斑正对区域的图像,其余的部分都很模糊,由于人脑下意识地指挥眼睛每秒钟转动十几次,把视场中需要注意的区域都扫描过一遍,因此我们感觉眼前的东西都是清晰的。我们看0.5米外600DPI的图片,就感觉相当清楚,没有失真,比600DPI更高的分辨率并不会让我们觉得图像质量更好,因此可以近似地认为600DPI是黄斑分辨率的极限。0.5 X 1000 X SIN5 X 600 / 25.4 =1029 约为1K,也就是说整个黄斑看到的象素数不到1M,人眼大约能分辨160K种颜色,那么像素所包含的最大信息量为接近160G,而事实上即使对黄斑区域的图像,人脑也不是全都有如此高的像素和颜色分辨率,只有黄斑中心点才能达到这个最高水平,因此实际接收的信息量可能仅是160G的十分之一,百分之一甚至更少。人脑每秒处理不大于30帧图像,超过30帧并不会对视频的流畅性有所改善,因此每秒处理的象素信息量即使按最大来算也不大于4.8T。可以看出,这并不是个非常大的数字,今天的计算机硬件已经接近这个水平了。人脑真正神奇的地方在于,达到这样的信息处理能力,仅仅用了相当于笔记本电脑的功耗。另外,处理4.8T并不等于存储4.8T,处理仅仅是看清楚,并分辨出其中的实体对象。大量的信息在视神经第二层细胞那里就被加工和丢弃了,传到枕叶的仅仅是从视场中识别出来的有限几个对象的图像。人脑是按照场景来处理和记忆的,通过把识别出来的对象组成场景模型,并一边对这个模型进行实时推演,一边把来自视觉的新的信息纳入到模型中去,从而实现视觉感知的,对于无法融合到模型中的信息常常不作处理直接丢弃,“人只看到自己想看到的东西”就是这个意思。
好吧我算过,打一盘dota按照一个小时计算,人脑接受的信息量是9000G以上;但是用电脑存储的话,只要一个war3引擎加上一个replay文件,一共不到1G;所以人脑接收的数据是大量冗余的,而且遗忘的很快如果能把它压缩一下,一个大脑也就能记忆一个大脑那么大的信息吧(-_-。找抽)
没法直接比。大脑不是类似CPU的通用计算机,而比较类似FPGA。而且,显然大脑对一些任务远远强于现有的计算机与算法(比如图像识别、推理),但另一些任务又远远弱于(比如数值计算)。
讨论人脑能存储多大数据量是没有价值的. 因为人脑会逐渐遗忘. 能存储1PB数据的硬盘, 现在看来是非常大的了. 如果这个硬盘上的数据每过一个月, 就把旧的数据随机抹掉30%(就好比人脑的健忘一样). 请问, 这样的硬盘你会把它派上正式的用途吗? 所谓好记性不如烂笔头. 大脑的存储能力非常的弱, 需要借助外界工具才能实现永久存储.个人认为人脑的计算能力是非常惊人的. 比现在的Interl I9 CPU还要牛. 但是, 人脑的缓存非常差劲, 这决定了人脑的强大计算能力根本发挥不出来. 举个例子, 让你算一位数的乘法, 很轻松搞定. 如果让你算三位数的乘法, 恐怕就很吃力了. 为什么或这样呢? 三位数的乘法也只是按照规则, 逐个位数地相乘, 然后把最终的结果交错地加起来而已啊. 原因就是人脑的缓存非常差劲, 你在计算高位数的乘积的时候, 你的大脑往往缓存不了前面低位数位数的乘积, 让你单纯计算某一位数的乘积都没有任何问题, 但是三个位数的乘积由于缓存不下来, 所以也没办法通过最后的加法来获取最终的结果. 大脑的缓存差劲归根结底还是因为人的大脑的存储能力太弱, 一个数据需要重复再重复才能持久化, 并且不存在所谓的永久持久化.
已有帐号?
无法登录?
社交帐号登录天极传媒:天极网全国分站
您现在的位置:
& >&MacBook储存太小?这家伙可以解决问题
新MacBook储存量太小?这个家伙可以解决问题天极网笔记本频道 10:23
  如果你购买了的新MacBook,而且你还想要经常传输或拷贝大容量的文件,那么你一定对这款名为TarDisk的新MacBook专用存储扩展模块很感兴趣。
TarDisk存储扩展模块
  TarDisk目前已经开始在Kickstarter上进行众筹,它旨在通过新MacBook的SD卡槽为用户提供一个额外256GB的存储空间。虽然之前已经有过类似的解决方案,但TarDisk可以让我们花费50美元(约合人民币310元)或256美元(约合人民币2590元)额外为新MacBook添加64GB或256GB的存储空间。
TarDisk存储扩展模块
  TarDisk使用了行业领先的闪存控制器,它可以满足高清设备需求的Class 3以上的读写速度,同时TarDisk还拥有非凡的速度及稳定性,控制器配合高密度的12(128 Gigabit)(MLC)NAND闪存,通过使用16GB NAND闪存芯片到同一个堆栈中,而两个堆栈可以被并排放置,最终组成了这个×22毫米的新MacBook扩展存储模块。
  如果你对新MacBook有额外的存储需求,那么不妨来看看这款TarDisk外接存储模块的介绍视频。
(作者:小勇号责任编辑:朴勇)
天极新媒体&最酷科技资讯扫码赢大奖
* 网友发言均非本站立场,本站不在评论栏推荐任何网店、经销商,谨防上当受骗!
手机软件办公游戏为什么我将一个视频转换格式后文件容量变大了?_百度知道

我要回帖

更多关于 狸窝全能视频转换器 的文章

 

随机推荐