第39节

    靠讲台最近的加拿大代表团用的是华人译员。那译员灵机一动,全部换成国际象棋术语来翻译。当然是硬凑加胡编,代表们听得频频点头。图海川也听见了,冲他伸个大拇指。
    “会下围棋的请举下手?”
    不超过五十人。日本和韩国代表几乎是全体。
    “会下国际象棋的请举手?”
    举手起码多了五倍。
    图海川想了想说:“那也不能将就你们。这个问题,围棋比象棋本质得多,因为它几乎没有人为规则。非得用它才能讲清楚。”
    下面响起零星的嘘声。图海川讪笑着,跷起二郎腿喝水。
    张翰一看他那满不在乎的屌样,斜靠椅背放松的身体,就知道“泥巴时刻”来了——就是朱越在泥巴里面做爱的状态。他手心顿时涌出一把汗。
    「–」
    “当然是因为我们太低能。”
    图海川用空瓶子指着自己的脑袋:“这东西功率不到100瓦,信息传输速度不到每秒100米。阿尔法狗下一盘比赛电费都要3000美元,传输速度是光速。我们发明了这个游戏,一开始和狗的玩法是一样的——本来就该这么玩嘛。然而只要稍稍入门,计算量上去了,我们的脑子就不够用了。要想玩下去,那就只能猛烈削减计算量。
    “怎么削减呢?抽象,分类,一层又一层创造新概念,每个概念都把概率计算模糊化,把纯粹的逻辑和计算问题变成教条、经验和价值观。我们把无数种估值计算抽象成‘实地’和‘外势’,把无数种小局面分类成‘好形’和‘恶形’。阿尔法狗亿万次推演的得出的下一手,我们用几个字的模糊教条代替,比如‘逢危需弃’。我们用‘美感’‘虚实’这种非逻辑语言描述围棋,因为我们说不清楚、算不过来。这些低能耗工具真的非常管用,李世石还赢过狗一盘!
    2016.3.13,人脑智能在棋盘上最后的辉煌:78手挖制胜。这盘之后阿尔法狗再无败绩。“鬼魅”“凌厉”“天外飞仙”是当时其他人类对白78的描述。78手实际上是误算,然而引发了ai的bug
    “这一套玩法听起来很矬。下棋我们是永远下不过ai了。但是阿尔法狗只会下棋,其它什么也不会。东亚人说围棋是人类智能的桂冠,这是自吹自擂。下围棋是个非常简单的智能行为,因为它规则非常简单,因素非常单纯。我们觉得它难是因为19路棋盘太大了,纯属自虐设计。从13路涨到19路,计算量指数暴增,我们又非要玩,就必须搞出这么多复杂的概念来简化它。而狗,因为有一把蛮力,简简单单就把它玩好了。从信息处理和概率学的角度来看,医生诊断病人,或者纯粹靠观察判断老婆有没有偷情,都比下围棋复杂亿万倍。这些事情,我们很多人都能做得很好——”
    下面哄堂大笑,都在互相问图海川有没有老婆。
    “——但是阿尔法狗就不行。绝对不行。作为一个ai,它非常原始。而我们的大脑是一部通用智能机器,它用它那一套工具和架构,可以对付任何事,解决任何智能问题。我看见同行们在打哈欠了。因为我刚才讲的都是ai研究中的入门常识。为你们的领导着想,请再忍耐我一会儿。
    “谁都知道大脑是唯一的通用智能机器。那我们为什么不造个人工大脑呢?这东西可不好造。因为它慢,为了解决问题就进化得极其复杂。上个世纪后半段,有些ai研究者真的尝试过。一个小程序或者一个硬件单元代表一个神经元,让我们弄一大堆胡乱连起来,就叫神经网络!用海量数据训练它,看看它会不会变成大脑?
    “当然没有。这些先辈,在业界叫做连接主义者。他们几十年没做出什么成绩,在投资者当中名声臭了。后辈为了出成绩赶紧换方向,ai技术的玩法从连接变成了概率。阿尔法狗就是概率学ai的平型关战役,虽然体量很小没搞定多少鬼子,却吹响了二十一世纪人工智能大进军的号角。因为它证明:我们只要操起这个武器去打,总有能打赢的时候。”
    日本代表们听译员解释之后都在笑。
    “为什么我会坐下来,从头考虑这些常识问题?因为我感觉概率学已经玩不动了。我的偶像杨立昆,在2017年就说他已经准备好放弃概率学。那时我还是个无知少年,觉得他在无病呻吟。到2029年,我比他更绝望。不是说概率学ai不行,它很厉害。谷歌透镜、人脸识别、自动驾驶、智能辅助设计、诊断系统、智能测谎、无人机刺杀、智能战略防御,不久之前你们还用得很开心。这些都是概率学ai的成果。当代流行的ai中,最差劲的是智能教育系统,教书的ai假装教,上课的学生假装学。最可笑的是ai明星,猴子穿个龙袍就敢去演皇帝。这两个失败都情有可原:在我看来,当个好老师是人类最高智力成就,而表演别人是人类最狡诈的智能行为。这些短板还不算严重。真正严重的是:概率学ai看来永远达不到我的目标——通用人工智能。(注:杨立昆,即yann lecun,美国人工智能学家,深度学习的创始人之一,被誉为“卷积网络之父”。)
    “于是我反复思考那个唯一的通用智能,越想越气愤。它凭什么那么简单却那么厉害啊?”
    国务卿不举手直接站起来:“简单?你不是刚说它极其复杂、无法制造吗?”
    “它长得极其复杂,运作的原理却非常简单。跟概率学ai正好相反。我们用概率学ai解决一个问题,构造框架简单明了,但具体实现要做非常复杂的设计、计算和测试。其中有些部分纯粹靠反复碰运气,碰到正确答案为止。为什么正确我们都不知道。而且无法移植,能解决人脸识别的ai设计遇到翻译问题马上废掉,几乎是从头做起。也就是说,我们没有一个关于智能的整体解决方案,都是具体问题各自为战。大脑是一个明摆着的整体解决方案。大脑神经元不懂任何算术,更别说概率学,执行的操作就那么两下。组成一个庞大的网络却能解决一切问题。”
    “哦?我听过的科学家,都说大脑的运作原理无比复杂。你却说简单?那么简单的话,能分享一下吗?”
    “刚才我讲人怎么下棋的时候,已经说过了:记录,模式抽象,分类,层层创造新概念,把记下的模式用来预测。完了。”
    国务卿一时摸不着头脑。图海川挥手让他坐下。戈德曼坐在旁边不动如山,根本当他不存在。
    “同行们注意!下面是你们不知道的,或者不愿意承认的。连接主义者很不幸。他们的直觉其实是对的,但生活在上个世纪,生物学和认知神经学都太落后,根本不懂大脑。我们先来看看大脑到底怎么工作。
    “我们的计算机程序,数据结构非常复杂,大学时数据结构基础就要学一年。谷歌推出的ai数据标准,光是‘张量’一个结构就能把有些专业人士打晕。而大脑呢?它只传输一种信号:神经电位冲动。它只存储一种数据:组合序列。
    “我们的感官接受很多种信号:视觉接受电磁波,听觉接受声波,还有压力、惯性方向、热量转移速率、无数种化学分子,气溶和水溶分子接收体系还不一样……大脑可不像计算机,为每种信号规定一种格式。大脑在神经系统的边界层就把它们全都转换成神经元冲动,在内部全都存储为组合序列。所谓冲动,就是一个神经元以电位形式兴奋起来,并把兴奋传给连着它的另一个神经元。每个冲动本身都是一模一样的,区别只在于从谁传给谁。所谓组合,就是哪些神经元一起兴奋。所谓序列,就是不同组合兴奋的先后顺序。这就是大脑唯一的数据形式,大脑用它解决所有问题。它完全依托于神经元之间的网络存在,没有连接就没有数据。所有写过程序的人,请你们仔细品品这种数据结构。多简洁,多优美!
    “我们每时每刻都在接受海量的感官信息。视网膜感光细胞就有几百万个,看电影时每秒激励10次左右,已经赶不上电影每秒几十帧的刷新率。虽然大脑有上千亿个神经元,也不可能存下这么多组合序列。这跟下围棋不可能计算穷尽是一个道理。于是大脑使出第二招:模式抽象。
    “假设你在看书。印刷文字反射的光线投在你的视网膜上,感光细胞开始一群群激励,向大脑中连着的神经元发送冲动。有些冲动的组合序列代表受激励的感光细胞直线排列,大脑把它抽象为“直线”,在上一层用一个或者几个细胞的组合代表。同样的方法也产生“弧线”这样的抽象。几个‘直线’和‘弧线’的特定序列组合,在更上一层抽象为字母h。几个不同字母的组合序列,在更上一层抽象为单词horse。记录horse的组合序列,会跟另外一些早已存在的序列连接起来——比如你听见这个单词的读音产生的序列,那是耳朵接收音频转换生成的序列。
    “所谓连接,就是共同激励,你一兴奋我就兴奋。英国和美国口音horse的念法不同,男人和女人的声音频率也差得远。但是没有关系,它们跟视觉产生的单词序列都连在一起,还跟你曾经看见一匹马的视觉图像序列连在一起。除了英文你还会说中文。那么,ma的发音跟horse天差地远,在你大脑中两个代表不同音频的序列仍然连在一起。这几个序列彼此全部连通,那么就会再次向上层细胞抽象。在这一层,‘马’已经甩掉了黑毛还是白毛、听觉还是视觉、文字还是图像、中文还是英文这些不必要信息,成为一个真正的概念,用一个特定神经元组合记下来。我们可以叫它马细胞。那么以后你不管通过哪种感官接收到关于‘马’的信息,甚至闭上眼自己想一下,马细胞都会兴奋起来。”
    “它还会跟大脑中许许多多其它概念连起来。比如另有一个‘牛’的概念。这两个东西的组合序列会很相似,因为抽象出它们的下层序列和关联概念,很多都是重合的。比如四条腿,比如都能被人养。大脑会发觉这两个组合序列相似,虽然不清楚该叫什么,先连起来再说。以后你再听到‘家畜’这个说法,更高一层的概念名字就取好了,新的存储组合也生成了,以后认识的猪和羊都连到这里。这就是大脑的第三招:分类。这种层层抽象还会向上延伸,比如生成‘动物’的概念。还会跟其它概念产生横向连接,比如‘马’可能连接到‘老婆’。为什么会这样连接?因为‘马’这个概念的下层包括一张抽象的、长长的脸。你的大脑中“老婆”这个概念已经连到了这里,双方共用这个下层概念神经元组合,所以连上了。连上之后,别人小声说‘母马’,你就会很敏感,觉得是在骂你老婆。”
    听懂的人都听得痴了。没听懂的又开始推测图海川的婚姻问题。
    “组合序列记录、模式抽象、分类。大脑就靠这三招,在内部建立了一个世界模型。如果这个模型是一座大厦,我刚才描述的局部就比一块砖还小。然而,整个大厦都是用这种机制建成的。这个世界模型的物理位置在大脑皮层,仅仅用了六层细胞,大概一千亿个。我们遇到的每一个需要智能解决的问题,大脑都在建好的世界模型中推演,就像棋手先推演下面几步,再落子。这叫预测。或者根据新的信息,先在世界模型中增添新组件,和旧组件建立连接,再来推演。这就叫学习,或者叫记忆加预测。
    “做ai的人都有共识:智能的本质就是记忆加预测。我们头骨里面这个记忆-预测模型,有些人大,有些人小,所有人都有不同程度的歪曲。但大脑解决所有问题都是把它放在整个世界模型中运行。这样来看大脑,它不是通用智能才怪!”
    没有一个人说话,没有一个人的眼睛离开图海川的脸。只有一些小国代表受不了自己的译员了,用耳机连上公共翻译。
    “一个小巧、简洁、通用的世界模型。听起来就能把人迷死。想制造大脑的人远远不止我一个,古往今来太多了。为什么他们都失败了?我们再回头来看看连接主义者,在我之前最近的尝试。”
    “他们的直觉其实是对的。分布式网络,单元最简行为,海量输入数据施加压力,让网络自己学习、生长、进化。这些都是构造大脑的基本原则。世上最复杂的东西都是长出来的,而不是设计出来的。也不要以为‘连接主义’在ai界成了贬义词,它就死掉了。当今主流的ai技术:深度学习或者机器学习,它们的内核还是这些原则,只是设计使用的数学工具先进了无数倍,再加上不声张而已。你最多能听见他们说‘黑箱卷积’或者‘玄学调参’。
    “既然原理相同,那为什么从前的连接主义者尸横遍野,当代偷师了连接主义的概率学ai仍然看不到大脑的尾灯?原因只有一个:大脑比它们先出发——大概五亿年。
    “大脑的世界模型不是从你出生开始构建的。只有最顶层很少的一部分才跟出生后的学习有关。下面占多数的底层,组合序列早已建好,预测模型早已完美,数据庞大到不可思议,连接复杂到不可思议,都是你继承的遗产。这些部分很多跟你的身体有关,更多的与外部世界有关。随便挑出一个局部,都能让顶尖的概率学ai汗颜。
    “我们挑个简单的:皮肤上的压力感受器。你刚出生,它就对外部世界无师自通。给它个尖锐而快速的压力——痛觉,模型预测是荆棘或者爪牙,对策是不经过意识反应直接缩开,越快越好。给它个点状分散、轻微而移动的压力——痒觉,模型预测是昆虫或者腐蚀性物质,对策是没手的去树上蹭,有手就用手挠。给它个宽广、稳定而柔和的压力,模型预测是爱抚,对策是通知某个腺体分泌神经递质,神经递质促进一大片预先编好的组合序列兴奋起来,让你觉得爽,还会启动一整套社交行为。比如四脚朝天亮出肚皮,或者放开奶头笑一下,或者呻吟两声鼓励他继续。”
    听众们一直屏息静气,这时突然爆出一片喝彩与掌声。图海川绝望地想:幸亏加的料够多。
    “这么庞大复杂的底层模型,当然也是一点点学习外部世界,学出来的。不是我们自己,是五亿年间每一个直系祖先。学习方法是世界让神经建模不行的早点去死,或者终身破不了处,那些就不是我们的祖先。建模够快、够准确的才有资格做祖先。它们把整体建模的菜谱刻在基因组当中传给我们——菜谱,不是蓝图!也就是说,每个人头颅中的世界模型刚一出生,对世界的学习就已经持续五亿年。所以它才会长得那么复杂。
    “而连接主义者呢?他们输在起跑线上。人工神经网络从一无所有的白纸开始。不仅节点和连接数量没法跟大脑比,探索阶段的学习数据摄入量,几张打印纸就可以抄完。我说过,他们的原则没有问题。也许让他们搞上一千年,人工神经网络能赶上大脑的水平。毕竟人类操纵进化比自然快得多,看看狗就知道——真正的狗,不是阿尔法狗。但是现代社会不可能等你一千年。阿里集团放手让我玩了十年,已经是理解与慷慨的巅峰了。”
    孤零零一只手举起。这是一位小国代表。
    “图博士,您的智能学讲座精彩绝伦。但是为国际社会的团结考虑,能否请你不要把进化论这样充满争议的学说带进来呢?我相信我们今天是来达成共识的,不是来争吵的。”
    “谢谢您的夸奖,主教大人。这次会议开三天,就算今天我们不争吵,明天后天也一定会。还有,如果您无法接受任何一种包含进化论的表述,那么再听我讲半小时,您会发现我们全体坐上了高速列车,直奔地狱。”
    主教似乎被吓住了。他刚坐下,英国技术代表杰米斯爵士又举起了手。
    “非常感谢你给同行上的生物课。请问你是生物学家吗?或者神经学家?或者有医科学位?”
    “都不是。但2029年上班的第一个月,我的团队就招募了四位顶尖的认知神经学家。其中一位是你的剑桥校友,你们认识。接下去两年我就差跟他们睡觉了。”
    爵士笑着说声“真有钱”就坐下了。他身边的嘉德接过来:“也就是说你还是个外行。请问这里有专业人士吗?他刚才说的是权威理论,还是华丽的想象?还有,这些跟我们今天的主题真的有关吗?”
    会场安静了片刻。
    瑞士代表团一位女士怯生生站起来:“我在海德堡大学教过二十年神经生理学,也许能给个参考。图先生刚才讲的,原则上很准确。只是……省略了很多细节,经过高度抽象。我刚才听起来也像是才明白。”
    图海川向她鞠了一躬:“谢谢您证明我的大脑还在正常工作。嘉德女士,我向你担保,刚才这些问题关系重大。因为下面我就要讲为什么别人造不出来,我却造出来了。
    “当今的概率学ai做法很精明。他们不去妄想整个世界的数据,而是专攻非常狭窄、非常单纯的一点。比如规则简单到极致的围棋。阿尔法狗上手先看几百万张棋谱,这比任何人加上他的所有祖先能下的棋还要多得多。所以人永远下不过狗了,这样看没有任何意外。课题稍微宽泛一点,概率学ai的吃力程度就指数上升。因为它的架构原则不是为复杂数据准备的,缺乏通用潜力,更没有几亿年累积的世界模型。比如人脸识别,ai最成功的领域之一。从上个世纪开始搞了八十年左右,投入不计其数的智慧、金钱和算力,计算过上百亿张脸,现在ai终于超过人了。还不是完全超越,抗干扰能力和跨年龄识别还远远比不上。大脑呢?刚才那个吃奶的婴儿就会识别人脸。等他八十岁的时候,还能识别八岁时见过的脸!
    “正是这样成功的例子,让我在2029年接近完全绝望。这个世界太大、太复杂,数据量无限。我们用概率学ai攻克人脸识别这样一个小小的领域都需要八十年的消耗战,什么时候才能建成一个世界模型?”
    图海川的声音变低了,眼睛不再看听众,似乎坐在那里自言自语。听众们全神贯注,跟着浸入2029年那颗独自沉思的大脑之中。
    “我想不起从哪天开始,意识到互联网的结构和大脑极其相似。分布式网络,不是设计的而是生长的,自然适应物质世界环境,自然分层,自然分区,底层节点连接着无数感官,接受无数种信息,被这些信息塑造,继续生长。它就在那里。我可能一直都知道。
    “但是互联网极端复杂的数据结构和通信协议蒙蔽了我的眼睛,让我不敢向那扇门迈出一步。门后面的东西太庞大、太复杂,而我想要的是简化——直到我认识王招弟博士。万国宝的诞生,第三位需要感谢的人是她。如果说我是一个大号反应池,乱七八糟的东西都腌在里面慢慢发酵,王博士就是一道闪电,瞬间点燃所有反应。”
    礼堂中每一双眼睛都转向第六排。王招弟面不改色,仿佛说的是别人。张翰在她旁边,倒被闪得埋头打了个喷嚏。
    “我面试她用了25分钟。那时我准备的一堆问题才问到三分之一,问她为什么对自然语言翻译ai感兴趣。她答道:‘语言是头脑之间的通信协议。一百年前世界人民离得很远,各说各的,也就罢了。现在有了互联网,大家直接交谈。但自然语言太多,协议太乱接口太差,白瞎了互联网统一的基础协议。难道不该改进一下吗?’
    “面试马上结束。王博士成了我的合作伙伴。我送她出门之后,一个人在走廊里来回横跳。这个面试让我突然明白了,万国宝项目到底站在什么位置上。互联网真正的神经元是人,是几十亿颗大脑!他们已经进化了几百万年,所有底层构建齐备!互联网本身进化了将近一百年,但它的速度比自然进化快千万倍!它就在那里,数据饱胀得无法理解,通信密集得快要爆炸,只等出现一个机制,向上简化!而万国宝,如果按我的想法做成了,就是那统一的数据结构,统一的协议!以前吓倒我的那些复杂细节,现在看来无关痛痒。它和大脑一样,需要的只是连接。统一定义、可以抽象、可以产生概念的连接。这不就是语言吗?霍桑说得再准确不过:我想造一颗大脑,所有大脑组网形成的大脑,比我们更高一层的智能,互联网的灵魂。所有条件已经准备好了。”
    张翰经历了周克渊的当头棒喝,今天已经不再震惊。他左看右看听众的神情,猜想那天自己像谁。
    “声明一点: 2029年的我太过狂妄,没有看清整个局面。今天的世界是这个样子,证明我只对了一半。还有一条路可以走通,建立在概率学ai基础上的道路。究竟是怎么走通的,我到今天也不太明白。我讲完之后,希望戈德曼博士可以教我们。”
    戈德曼进入会场以来一言不发。现在置于炉火之上,终于站起来:
    “你刚才讲的前半段,我想打瞌睡;后半段,我想回去把你的雕像摆在书桌上。如果我说‘我没有什么可以教的’,你还会继续教我们吗?”
    “中国邀请各位远道而来,不是来听我半途而废的。”
    “很好。我没有什么可以不教给各位的。”
    会场响起低低的笑声。
    戈德曼紧盯着图海川:“2029年的你,不能叫狂妄。是恰到好处的智慧给了你信心,恰到好处的无知给了你勇气。如果霍桑把你拉进了谷歌,或者稍微向你透露另一条路可能怎么走,我相信你不会有胆量自己找路,还干了这么大一票。霍桑这老家伙,有用和没用也都恰到好处。”
    图海川想了想说:“很可能。然而我这些想法不是什么独家秘方。核心原理也是一位美国前辈教给我的。”
    国务卿和兰道同时出声:“谁!?”
    “杰夫·霍金斯。2004年他写了一本书:《论智能》,公开出版。我刚才讲的大部分原则和对大脑智能的理解,都从这本书而来。”(注:《论智能》:on intelligence,jeff hawkins。中文版译名为《人工智能的未来》,2006年出版。)
    美国代表都转脸看着戈德曼。他点了点头,小声嘀咕:“谁知道杰夫蒙对了呢?”
    图海川有点惊奇:“你们不认识他吗?他可是最早做掌上电脑的人!国务卿先生,今天我带了作者签名的《论智能》初版,可以送给你。”
    他真的从文件袋中掏出一本翻得毛茸茸的蓝皮简装书,举在空中。
    “谢谢不用。我想读的书都自己买。”
    前三排的人反应极快,一大片手马上举起来。图海川扔过去,一位幸运的译员抢到了。
    张翰在王招弟耳边说:“活久见,图老师居然有摇滚明星范!是你教他的?”
    王招弟笑而不答。
    礼堂中热闹了一阵。两位ai大师互相抬轿虽然肉麻,各国代表听着都暗自宽慰。看来,两国也不是注定要干一票大的。
    「–」
    “我们立即开始工作。以前的成果完全推翻,从基础架构重新开始。这些工作非常艰巨,也非常琐碎,今天没有时间介绍完,我举几个底层和高层的例子。第一个决策是绝不给它词典。准许它连接人类编写的词典是七年之后的事了。在那之前,我们已经悄悄用它帮助修订了《新华字典》2036版。”
    张翰听见后排中国随员中有人嘀咕:“我说干嘛那么急出新版……”
    “开头两年我们的进步非常慢。我采纳王博士的建议,从语音而不是文字开始。一个单音节汉语字‘人’,为了让万国宝网络对所有真人发音产生自发连接,用了整整一年!男女老少,普通话的ren,吴语的nin,四川话的zen,粤语的yaen……训练它的方法,仍然是概率学ai那一套:把真人说话的语境数字化,用大规模统计来建立概率连接。我们的新设计并不排斥概率学ai方法,只是把它限制在感官接口和底层连接实现上。自然进化需要千万年实现的东西,我们摘了同行的果子。
    “跨语种时,第一选择当然是英语。原以为会更慢,没想到只用了1/20的时间。事后想来这是必然的:万国宝把各种汉语中的‘人’发音连起来之后,已经向上抽象了一层。在那里,它有了一个概念,虽然它还无法用其它词语表述。但摸到英语时它很快发现下面连接的都是类似的语境,于是在上面那一层直接建立连接!语法对它来说根本不存在,它对‘相似’或者‘同义’的判断,根据来源于底层的底层:真实世界。
    “从语言到文字的连接更是快得出乎意料。我终于明白了王博士的直觉:文字本身就是符号化的、经过抽象的语音。它介于我们定义的第一层和第二层之间,不能用来打地基。然而,我们在头一年咬牙磨出来的原始连接,被文字插在中间双向传导,整个概念网络的扩展速度提高了一个数量级。
    “2032年团队全体放大假,王博士带我们去语言学家的天堂——新几内亚玩。在岛上,当地的土著和她又给了我几道闪电。
    “第一道是和土著强行交谈时被闪到的。我和土著一对一,两个人连说带比,半天也没什么进展。比如我指着自己说‘我’,他怎么知道我的意思是人称代词,是名字,是‘你的主人’,还是‘文明的灯塔’?然而双方三对三,效率立即提高几十倍。我可以指一圈:‘我’、‘你’、‘他’、‘他’、‘他们’。这样一搞,双方还立即明白了汉语第三人称只有单数复数,而土著语有单数、双数和三数。在这之前,我们出于谨慎,真人实验网络规模都比较小。回国后我就大肆扩张,寻找一切机会让万国宝吸收大人群的数据。最狠的一招是单向连接了全国中学生用来学英语的手机ai。那个ai本身很差,但它的原始数据无价,每天18小时不限量供应。
    “在岛上王博士就笑话我:人群网络越大,两种语言自然通译越快。这是语言学的abc,我怎么捡着当宝贝?但我也有她没注意到的领悟:那根用来指人的手指。
    “回去之后,我招了一组人研究tensorflow上谷歌透镜模式识别的内核架构,把它做成标准附件,强制万国宝连接语言时用这个识别器同时处理情景中的图像和视频。网购平台本身还有个常备手指:当前宝贝——sorry,当前商品。现在除了语境匹配,加上了数据量大得多的情景匹配。我们又摘了果子,网络向上生长的效率又提高了几十倍……”
    技术代表们哗然,似乎都瞬间打通了任督二脉。国务卿脸上见汗,瞟了戈德曼一眼,奇怪这种人为什么没有早点死绝。
    “最后、最大的一道闪电,还是王博士炸出来的。各位第一次听说她的大名,多半是因为新王码。后来新王码被……边缘化了。2029年她重开老课题,没有经费,才需要找工作。她的精力在项目组用不完,老课题进展也很大:人类语言的隐喻体系。论文我就不背诵了。总之,我躺在岛上读,突然明白了大脑的另一个秘密。显而易见的秘密,但是当年霍金斯都没反应过来。
    “类比是大脑网络构建的基本形式。前面我们说了,大脑的统一数据格式是组合序列。它怎么知道把谁跟谁横向连起来?结构相似的就连起来啊!相似的细胞组合,相似的神经冲动发生序列。隐喻是语言生长的基本形式。美国人吸毒吸高兴了,中国人喝酒喝高兴了,都叫‘high’或者‘高了’。这是方位隐喻,从百万年前就有的方位概念派生而来。英语把银行叫bank,所以把货币叫currency,把存钱叫deposit。这是连贯隐喻,从一组事物的机理构建另外一组。比喻是每个人的第一修辞手段,已经从底层的无意识上升为有意识。我们用类比思考,用隐喻扩展概念和语言,再倒过来用语言塑造大脑。(注:bank的原意是“堤坝”,currency的原意是“水流”,deposit的原意是“沉淀”。)
    “我们对相似、类比、隐喻的依赖深入骨髓,统治我们每一种思维活动、每一种智力表现。我们不喜欢跟已知世界模型完全相同的信息,那叫重复,大脑的反应是厌倦、疲劳;我们也不喜欢完全找不到模板的信息,那叫陌生,大脑的反应是迷惑、恐惧。我们热爱的是相似:大部分相同,让大脑轻松理解;有一点区别,让连接再次延伸。这一点区别,就像dna复制中的误差,就像生物每一代的变异,是我们智慧的根本、创造力的源泉、上升的原动力。
    “为什么我们都热爱音乐?音乐就是节奏序列大体相同,频率序列大体相似,但每一段、每一阶稍有变化。大脑最享受的体操,全员起舞。不信你把八度音阶的频率稍微改一点,不是前一阶的正好两倍,听听有多难受。为什么我们觉得美人的脸美?以前统计的学者说是因为对称,只说对一半。不信你找张美人图,把任意半边脸对折过去合成,看它怪不怪。大脑认为在对称的基础上稍有变化最美。过分对称的美女,知道给自己插上一朵鬓边花,点上一颗美人痣!”
    乌玛·瑟曼和她的完全对称脸
    礼堂的空气中充满电荷。一重又一重的隐喻,一波又一波的类比,穿透已知和未知的壁垒。一颗大脑在解释自身。诡异的递归行为变成汹涌的智力喷发,所有听众都吓到了。没人忍心鼓掌打断他,没人敢出声把他拉回议程的方向。


新书推荐: 猎物 风流alpha的财阀之路(GL NP) 柠檬加盐气泡水(兄妹骨) 穿成孤寡男主?我反手拐走主神 重生后拿了宠妻剧本 傻白甜小皇帝又被佞臣以下犯上 我的科长 旧国怀中雪 斗罗之二哈也疯狂 触手怪抢了儿子对象