“辛顿教授,我可以为你成立一个基于‘深度学习算法’的研究所,你个人可以得到200万美元的年薪,以及每年1000万美元的研究经费,合同期至少5年。你的助手和带的研究生,我也可以给予最优厚的条件。唯一的问题是,你可能会终生失去在学术界的地位。你的论文只有很少一部分有发表的潜力,而且还得签保密协议。你自己看着办吧。”
杰夫.辛顿有些尴尬,毕竟资格比他老20年的🈕♲🌘学界泰斗史蒂芬.库克就坐在旁边。顾诚这样直截了当地谈钱,实在有辱斯🌚⛓🙿文。
“到企业去做事,我们从来是不反对的,学术应该跟产业界结合。不过,就不知道一个明明只是做社交裹挟和游戏攀比的公司,能有什么课题让🜣人🆀拿出可以上ieee系列期刊🜞🃑🗈的成果呢。”
库克教授直接就点出了顾诚的短板。
别的🜏🁇🃬产业界大牛🜇⛭🝦,无论微软还是谷歌,好歹有一水儿的顶级大学研究所支撑。顾诚虽然也是🂽🔎⛃搞互联网的,但他的技术含量是最低的那一型。
就像后世b🚍a🜭t三巨头当中,腾云是技术含量最低的一个。
“你提到了神经网络算法这😙个拟🎀研究方向,但我🈕♲🌘看不出来这和你的产业有什么结合。让我们多伦多大学的教授去做那种看不到学术前景的花里胡哨东西,有违本校的学风。”
库克教授也不管自己只是个所🂐🍽🍤长,直接就盖棺定论了。
所谓“神经网络式算法”,库克教授十几年🀚前就有涉猎,相比于80年代以来的其他“np穷尽理论”而言,其最大的🕷🎔🐴特点是“没有运算核心”。
用人体来举例,人作为一个生物个体而言,是有中枢神经的绝大多数机体行动,都是大脑控制肢体,眼口耳鼻手足感知到了外部信号之后先要通过反射弧传递到大脑(部分最低级的反射,至少也要到延髓/脊髓处理)等大脑作出处理指令之后,手🔨🃈足才会作出反应。
但是如果把大脑单独作为一个独立个体解剖开来看,大脑内部上千亿个神经元是平等的。并不存在“某一小撮神经元高于其他周边神经元、从而在处理信息时先由🖡🔎⛈这一撮🔫神经元预处理、预处理完之后再交给下一撮神经元处理”这样的先后顺序。
(神经网络当然还有其他很多🂐🍽🍤基础特点,这里仅仅讨论和“遗传算法/退火算法”的主要区别,所以不多赘述了。否则能水几万字,大家还看不懂。)
当年“神经网络”的概念被提出时,就是为了探讨一种让电脑高效处理类似于“找到礼堂里到底有没有我认识的人”问题的新方法:如果可以有多个电脑♙🈰,自然随机地分配任务,并行从多个点开始用就近算法寻找,那么自然可以在“单核cpu”性能比较弱的情况下,通过堆砌cpu数量加快问题的解决速度。
但这个概念并没有“节约计算资源”,因为理论上它只是把“1台电脑10小时工作量”变🂽🔎⛃成了“10台电脑1小时的工作量”而已。而且这种最原始的“神经网络”也依然没法解决那些“似是而非”的模糊问题他们只能回答“有我认识的人/没有我认识的人”这种非此即彼的问题。
库克点名了在这个领域让顾诚🂐🍽🍤🂐🍽🍤对其应用💀模型说出个子丑寅卯来,顾诚自然不能避战。
“我拜读过辛顿教授对于神经网络的最新模型假说,卷积神经网络,以及与之配套的学习型算法。我认为这个东西可以和互🌚⛓🙿联网的自动识别/索引工具相结合。至于具体的应用场景么……那就属于商业机密了,恕我无🖒💂🎾可奉告。”
“卷积神经网络的新用法?”
史蒂芬.库克教授一愣,但很快🎀冷静下来,他可不是一个概念就能忽悠住的。
“看🜏🁇🃬来,顾先生要论述的重点,就在于‘卷积’上面了?”
杰夫.辛顿有些尴尬,毕竟资格比他老20年的🈕♲🌘学界泰斗史蒂芬.库克就坐在旁边。顾诚这样直截了当地谈钱,实在有辱斯🌚⛓🙿文。
“到企业去做事,我们从来是不反对的,学术应该跟产业界结合。不过,就不知道一个明明只是做社交裹挟和游戏攀比的公司,能有什么课题让🜣人🆀拿出可以上ieee系列期刊🜞🃑🗈的成果呢。”
库克教授直接就点出了顾诚的短板。
别的🜏🁇🃬产业界大牛🜇⛭🝦,无论微软还是谷歌,好歹有一水儿的顶级大学研究所支撑。顾诚虽然也是🂽🔎⛃搞互联网的,但他的技术含量是最低的那一型。
就像后世b🚍a🜭t三巨头当中,腾云是技术含量最低的一个。
“你提到了神经网络算法这😙个拟🎀研究方向,但我🈕♲🌘看不出来这和你的产业有什么结合。让我们多伦多大学的教授去做那种看不到学术前景的花里胡哨东西,有违本校的学风。”
库克教授也不管自己只是个所🂐🍽🍤长,直接就盖棺定论了。
所谓“神经网络式算法”,库克教授十几年🀚前就有涉猎,相比于80年代以来的其他“np穷尽理论”而言,其最大的🕷🎔🐴特点是“没有运算核心”。
用人体来举例,人作为一个生物个体而言,是有中枢神经的绝大多数机体行动,都是大脑控制肢体,眼口耳鼻手足感知到了外部信号之后先要通过反射弧传递到大脑(部分最低级的反射,至少也要到延髓/脊髓处理)等大脑作出处理指令之后,手🔨🃈足才会作出反应。
但是如果把大脑单独作为一个独立个体解剖开来看,大脑内部上千亿个神经元是平等的。并不存在“某一小撮神经元高于其他周边神经元、从而在处理信息时先由🖡🔎⛈这一撮🔫神经元预处理、预处理完之后再交给下一撮神经元处理”这样的先后顺序。
(神经网络当然还有其他很多🂐🍽🍤基础特点,这里仅仅讨论和“遗传算法/退火算法”的主要区别,所以不多赘述了。否则能水几万字,大家还看不懂。)
当年“神经网络”的概念被提出时,就是为了探讨一种让电脑高效处理类似于“找到礼堂里到底有没有我认识的人”问题的新方法:如果可以有多个电脑♙🈰,自然随机地分配任务,并行从多个点开始用就近算法寻找,那么自然可以在“单核cpu”性能比较弱的情况下,通过堆砌cpu数量加快问题的解决速度。
但这个概念并没有“节约计算资源”,因为理论上它只是把“1台电脑10小时工作量”变🂽🔎⛃成了“10台电脑1小时的工作量”而已。而且这种最原始的“神经网络”也依然没法解决那些“似是而非”的模糊问题他们只能回答“有我认识的人/没有我认识的人”这种非此即彼的问题。
库克点名了在这个领域让顾诚🂐🍽🍤🂐🍽🍤对其应用💀模型说出个子丑寅卯来,顾诚自然不能避战。
“我拜读过辛顿教授对于神经网络的最新模型假说,卷积神经网络,以及与之配套的学习型算法。我认为这个东西可以和互🌚⛓🙿联网的自动识别/索引工具相结合。至于具体的应用场景么……那就属于商业机密了,恕我无🖒💂🎾可奉告。”
“卷积神经网络的新用法?”
史蒂芬.库克教授一愣,但很快🎀冷静下来,他可不是一个概念就能忽悠住的。
“看🜏🁇🃬来,顾先生要论述的重点,就在于‘卷积’上面了?”