这周看到两个振奋人心的大好消息。一个是2024年诺贝尔物理学奖颁发给了AI技术的两大开拓者霍普菲尔德和辛顿。一个是诺贝尔化学奖也颁给了三位用AI做蛋白质研究的科学家。
我觉得这有标志性的意义,影响深远。
AI for Science代表了未来的一个趋势,可能以后各个科学的突破,都要靠AI来推动。AI会成为人类科学研究的重要工具。
诺奖的颁发再次印证当今AI是真智能
近年来人工智能技术的发展,包括大模型,都构筑在霍普菲尔德和辛顿的研究基础之上。
但他俩都不算传统意义上的物理学家,一位是分子生物学家,一位是计算机科学家,所以奖项一揭晓,很多网友就吵翻天了,他们觉得诺贝尔奖委员会是不是搞错了,计算机科学家拿物理学奖不可思议。
诺奖也给出了一个获奖理由,他们是使用物理学工具训练的人工神经网络,这些方法是当今最强大机器学习的基础,他们的工作让如今的深度神经网络和深度学习得以诞生。
这是对AI产业巨大的鼓舞,可以推动AI产业的进一步发展。
那些怀疑AI不是真智能,认为大模型只是一个随机推理填空机的人,嘴巴可以闭上了。
在神经网络出现之前,人工智能用的传统方法实际上就是人工智障和大量的数据标注、数据提取,而且泛化能力特别有限。我们把它简单地称为小模型。它的能力在某个数据集上表现不错,换了一套数据集可能就很差,且每个模型只能在某一个领域使用,换一个领域就不行。
而神经网络就不一样,它模仿了人脑的生物神经网络,通过一些复杂的学习机制,在训练过程中逐步把能力训成一个黑盒子网络,从而实现自动化的特征学习。泛化能力也强大了很多,且具有通用性。
我们现在最火的大模型就是建立在神经网络和深度学习的基础之上。
它用参数来模拟大脑里神经元的连接,人的大脑大概有860亿左右的神经元,而连接则是有千万亿级别。大模型的参数,可以比拟人脑神经元的连接数量。通过不断的优化这些参数,“大力出奇迹”,智能得以涌现。人工智能从而获得了突破式的发展。
AI发展与安全,要同时兼顾
诺奖颁给AI,首先是对这几年大模型技术发展的巨大肯定,我们同时也要兼顾发展与安全,不要让AI变成脱缰的野马。
辛顿是大模型技术的奠基者,但是他却对人工智能提出了很大的担忧:AI有没有可能威胁到人类的生存和发展?如果任由AI发展,硅基生命是不是会取代碳基生命?
他一直强调要把AI关在笼子里,科技向善。其大弟子,OpenAI首席科学家伊利亚之所以选择离职,也是因为跟奥特曼在如何驾驭AI安全上存在分歧。
在我看来,一方面要让AI成为生产力工具,推动人类社会产生工业革命级别的变革。另外一方面像360这样的安全公司,也要想办法解决AI的安全问题,让AI始终为我所用,变成人类的工具。
只有这样,未来AI的发展才能更加顺利。
关于AI与诺奖,我有四个预言
关于未来的诺贝尔奖,我们也可以大胆预测一下。我有四个预言。
第一,未来几年诺贝尔和平奖可能会授予伊利亚,因为伊利亚号称要解决AI的安全问题,当AI失控并危及人类的时候,谁能够制服AI,谁就能获得诺贝尔和平奖。
第二,ChatGPT或能得诺贝尔文学奖,因为用ChatGPT写的文学著作可能会超越人类的水平。当然用大模型写的文章最多的读者可能是其他大模型,所以诺贝尔文学奖可能会颁给某个大模型。
第三,诺贝尔经济学奖可能会颁给中本聪,就是比特币的发明人,因为比特币产生了数字货币的概念,而且也深刻的改变了世界对金融、货币的认知。
第四,到2035年,可能诺贝尔所有的奖项都只能颁给AI大模型,因为所有的成果都是AI大模型做出来的。
未来10年,世界会被AI深刻改变。
来源:红衣大叔周鸿祎 |
|
|
|
评论
直达楼层