一场基于深度学习的创业,竟争夺起了传统时尚的话语权
副标题[/!--empirenews.page--]
Illustration by Sandbox Studio, Chicago with Ana Kova 无法想象的复杂。在头脑真空地带和数据集群之间的光线。就像城市的灯光,在消退。 ——William Gibson, Neuromancer 或许连黄鼎隆自己都没有意识到,他的名字首字母(DingLong)的缩写恰好也是深度学习(Deep Learning)的缩写。 他和美国人码特(Matt Scott)创立的是一家专注于深度学习的技术公司。两位创始人,一个出生于30多年前刚刚被改革开放春风拂过的深圳,入学清华读博士从未有海外留学的经历;另一人则来自大苹果城纽约,身为犹太人早在90年代就来到中国并这块土地及人结下了不解之缘。 在差异性和多元化的浪潮在太平洋彼岸的美国逐渐退却之时,在中国,两个有着不同文化背景及人生经历的人走在一起结成创业伙伴,一种微妙而有趣的关系蔓延在两人之间。 尽管来到中国十多年,但是码特的中文依然不灵光,在接受采访时还要黄鼎隆充当翻译。但是,想必是在中国同事的耳濡目染下,码特已经习惯成自然地将 C++ 称作“C 加加”,而在黄鼎隆慢条斯理地向别人介绍公司的情况的同时,美国人却又往往扮演起热情而炽烈的布道者,他带着纽约人特有的自豪与夸耀的语气向别人讲述他对中国和中国人民的爱。 在过去两年多的时间里,创业的两人始终处在深邃却又激烈的漩涡之中,何止是他们,还有某个因为工作上除了纰漏就哭鼻子的兼通英日双语的小姑娘,他们都在宵衣旰食的创业人生中沉浮激荡。 又何止这家公司,在过往的两年甚至可以追溯得更久远的时间里,以人工智能及深度学习为例的技术领域和整个商业世界都在猛烈地生老病死进行着新陈代谢,而更大的现实世界更是如此。 世界一直在变,在此变化着的世界里,那些本就各异的人,他们又发生着怎样的变化,他们又在自己力所能及的范围如何改变这个世界。 巴别塔 早在两千多年前,希腊的亚里士多德(Aristotle)就说过,了解你自己是智慧的初始。然而自图灵(Alan Turing)提出他伟大的计算机和人工智能构想之后,自机器出现以后,人类就已经不再只是满足于仅仅了解自身,他们试图建筑一座后现代的技术巴别塔,让人和机器之间不再有隔阂,他们想更多地了解机器,了解蕴含于0和1里的混沌世界。 正是这样的野心和好奇心,不断推动着人工智能和随后的机器学习深度学习的进步发展。 1943年,沃伦. 麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)在阈值逻辑算法的基础上提出了可以应用于神经网络的计算模型。8年后,被后人誉为“人工智能之父”的马文·明斯基(Marvin Minsky)在他24岁的时候就组装了出了历史上第一台神经网络学习机器 SNARC。 年轻时的罗森布拉特 来源:peoples 基于只有简单加减法运算的两层电脑神经网络,弗兰克•罗森布拉特(Frank Rosenblatt)在1957年创造出了可以进行模型识别的“感知器”(Perceptron),他同时还提出了加入数学符号的神经网络层,而这样的想法直到整整20年后才得以实现,同时,罗森布拉特描绘的在“感知器”中应用的异或逻辑电路系统直到保罗·维博思(Paul Werbos)在近20年后提出“反向传播算法”(Backpropagation)时才应用到神经网络之中。 然而,明斯基和西摩尔·帕普特(Seymour Papert)在1969年出版的书里提出了计算器机器应用神经网络的两大阻碍因素,他们认定感知器无法处理或与逻辑电路,同时,他们还相信电脑没有足够的运算能力来满足大规模神经网络的长时间运行。两位权威人物的意见意外地中断了人工智能研究的势头和方向,罗森布拉特的天才设想被业界抛弃,人工智能的发展在整个70年代几乎陷入了万马齐喑的境地。 1971年,在43岁生日当天,罗森布拉特乘船不幸发生意外英年早逝,而就在这年,有科学家提出了利用 GMDH(Group Method of Data Handling,数据分组处理)算法来训练组成一个8层的深度网络,直到1979年,斯坦福大学的团队终于造出了可以自行在房间内导航并规避障碍物的“斯坦福车”(Stanford Cart),一年后,福島邦彦公布了用于识别手迹的多层神经网络“神经认知机”(Neocognitron),这套算法激发了随后的卷积神经网络的诞生。 在1989年,法国的燕乐存(Yann LeCun)团队成功地将反向传播算法应用了深度神经网络中以实现识别邮件上的手写邮编,但缺点同样也异常显著,他们光用算法训练深度网络就耗费了3天的时间,深度神经网络在此时显然没有任何实用性可言。 三年后,翁巨扬提出了“生长认知网”(Cresceptron),成功地从2维和3维混杂的场景中自动识别出了3D 对象,和日本科学家的神经认知机需要程序员手动合并识别中的某些特征不同的是,生长认知网可以自动学习每一层神经网络里未被监督的特征,后者还同时能在神经网络里通过后台分析将习得的项目分门别类。 尤尔根·施密特胡博(Jürgen Schmidhuber)在1993年利用神经历史压缩机通过“递归神经网络”(recurrent neural networks,RNNs)解决了一个同时有上千层神经网络展开的“非常深度学习”的任务。 两年后,科学家们进一步证明了,利用算法可以成功训练一个紧密联系的6层神经网络,尽管整个训练过程耗时长达2天。根据燕乐存的估计,在本世纪初时,递归神经网络识别处理全美一到两成的手写支票。 但是,由于在人工智能神经网络(Artificial Neural Networks)过长的计算时间以及科学家们当时一直不清楚人类大脑通过生物网络自主连线的运行机理,于是,在90年代及整个千禧年初期,神经网络和深度学习在实践上并没有大规模开展。 2014年时在 Google 工作的辛顿 Photo: Josh Valcarcel/WIRED 来源:WIRED (编辑:广州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |