〈
新通留学
菜单

诺贝尔物理、化学奖双双颁给AI?雅思阅读教你与AI共存~

2024-10-11

栏目:考培资讯

人喜欢

导语:

2024诺贝尔物理学、化学奖已揭晓!万万没想到AI相关研究拿了两项诺贝尔奖?! ? 诺贝尔物理学奖颁给了John J. Hopfield 和 Geoffrey E. Hinton! ? 他们因“基础性的发现和发明,使基于人工神经网络的机器学习成为可能”而获此殊荣——“for foundational discoveries and inventions that enable machine learning with artificial neural networks”? ?

诺贝尔奖物理化学奖AI

2024诺贝尔物理学、化学奖已揭晓!万万没想到AI相关研究拿了两项诺贝尔奖?!

 

诺贝尔物理学奖颁给了John J. Hopfield 和 Geoffrey E. Hinton!

 

他们因“基础性的发现和发明,使基于人工神经网络的机器学习成为可能”而获此殊荣——“for foundational discoveries and inventions that enable machine learning with artificial neural networks” 

 

诺贝尔化学奖颁给了计算机化学家David Baker,以表彰他在“计算蛋白质设计”方面的贡献——"for computational protein design"

 

另一半授予Demis Hassabis和John M. Jumper,他们开发了一个AI模型,解决了一个存在了50年的问题:预测蛋白质分子的复杂的空间结构——"for protein structure prediction"

 

这两个奖项的颁布无疑将再次引发对人工智能和机器学习领域的高度关注!

 

小新特地为大家整理了人工智能相关的雅思阅读材料,帮助各位考鸭们紧随时事~

 

Living with artificial intelligence

——与人工智能共存

 

收录于剑桥雅思真题18-test2-passage2 

 

跟小新一起探索人工智能的魅力吧!

 

 

原文阅读

 

 

 

译文翻译

 

这是 AI 的时代,一项又一项惊人的成就层出不穷。一台下象棋的 AI不但能打败所有的人类棋手,而且击败了所有先前由人类设计的下棋机器,还仅仅是在学习了这项游戏的四个小时之后。那已是昨天的新闻了,接下来还会发生什么?是然,这些了不起的成就全都来自所谓的狭义AI领域,机器执行的都是高度专门化的任务。但是许多专 家都坚信,这种局限性只是非常暂时的。到本世纪中叶,我们可能就会看到泛人工智能(AGI)——即能够在一切我们自己可以解决的全领域任务上达到人类表现水平的机器。

 

如果当真如此,那我们没有理由认为事态发展会就此止步。机器将不会受到很多人类智能的生理局限。我们的大脑以一种低生物化学处理速度、用相当于一个灯泡的耗能运行着,而其尺寸也被人类生育通道的尺寸所限制着。考虑到所有这些缺陷,它们的成就着实令人惊叹。但是它们与思维物理极限的距离可能就像我们的眼睛与韦伯太空望远镜的功能的距离那样远。

 

一旦机器比我们更擅长于设计更加聪明的机器,朝向这些极限的发展就可以加速进行。这对我们来说将意味着什么?我们能确保与这样的机器保持一种安全和愉悦的共存关系吗?往好的方面看,AI在很多事情上已经是有用和有益的了,那么超级AI可以预期会是超级有用和超级有益的。然而AI越是变得强大,我们就越需要极其谨慎地去具体定义它要达成的目标。神话传说里到处可见这样的故事:人们索要错误的东西,带来了灾难性的后果——比如说,弥达斯王也许希望自己碰到的每样东西都变成金子,但并不是真的想让这项能力也作用于他的早餐。

 

因此我们需要创造“对人类友好”的强大AI机器——其目标需要切实符合我们自己的价值体系。使得这项任务困难的原因之一是:我们自身就远未切实做到对人类友好。我们对彼此以及许多与我们共用这颗星球的其他生物做出了很多可怕的事。如果超级聪明的机器并不比我们做的好到哪里去的话,我们就会陷入深深的麻烦。我们将会有着强大的新智能来放大我们自身易犯错本性中的那些黑暗面。

 

于是,出于安全性的考虑,我们想要让机器在道德方面和认知方面一样超越人类。我们希望它们把目标对准道德高地,而不是我们中的许多人会在其中挣扎一段时间的的渠。幸运的是,它们将会足够聪明,足以胜任。如果有通向道德高地的路径,它们将会比我们更善于找到这些路径,并引导我们向着正确的方向进发。

 

然而,这个乌托邦式的远景目标中存在着两个大问题。一个是我们要如何让这些机器启动这场旅程,另一个则是到达这个目的地将会意味着什么。“启动”问题在于我们需要用足够充分的清晰描述告知机器它们要以何为目标,这样我们才能确信它们将会找到它——无论这个“它”最终究竟是何模样。这将不是件容易的事,因为我们都是部落性生物,我们自己对于完 美状态是什么样就存在着各种矛盾冲突。我们经常无视陌生人的痛苦,甚至还可能会造成其中一些痛苦,至少是以间接的方式。那么,我们又如何能为机器指点出一个更好图景的方向呢?

 

至于“目的地”这个问题,在将我们自己教进这些道德向导和守门员手中时,我们也许是在牺牲掉自身的自主性——而这是使得我们之所以为人的一个重要组成部分。比我们更擅长坚持道德制高点的机器也许可以想见地会阻止我们做出一些当下我们习以为常的失当举止。例如,我们也许会失去偏向我们自己社群利益的自由。

 

失去举止不端的自由当然并不总是一件坏事:禁止我们自由地将孩子送进工厂打工或者在餐厅里抽烟是进步的迹象。但是我们做好了准备去接受限制我们选择的硅基道德警察吗?它们也许能对此得心应手,甚至我们都不会注意到它们:但是恐怕没有人会欢迎这样的前景。

 

这些问题也许看似遥不可及,但它们在一定程度上已经存在了。比方说,AI已经参与了英国国民医疗服务体系(NHS)中关于如何运用资源的工作。如果被赋予一个更举足轻重的角色,它也许能比人类员工的管理做得更有效率得多,而且会以纳税人和那些使用这一医疗体系者的利益为先。然而,这样一来我们就会剥夺一些人(比如高级医师)目前所享有的控制权。既然我们想要确保人们得到平等的对待,各项政策公正持中,那么 Al的工作目标就需要被正确地具体描述清楚。

 

我们要应对的是一种新的强大技术——其本身就千真万确是一种新的思考方式。为了我们自身的安全,我们需要为这些新型思考者们指明正确的方向,让他们为我们循规蹈矩。目前还不清楚这是否有可能达成,但是如果要达成它,将需要我们拿出精诚合作的精神,并愿意将个人利益搁置一旁。

 

广义智能和道德分析都经常会被认为是人类所独有的能力。但安全因素似乎需要我们将这二者视作绑定的整体:如果我们要为机器赋予广义智能,那么我们就需要也给予它们道德权威。那样的话,又究竟将人类置于何地呢?正是出于这样的考虑,我们就更要现在就开始思考目的地问题,以及谨慎表达我们的愿望。

 

阅读材料出自

《剑桥雅思真题18》

马上领取真题及答案

 

关注新通出国考试

一对 一语言学习&留学指导

学雅思 新通为你撑腰

 

定制备考方案
获取备考方案
语言成绩不好如何进阶-WAP-全站弹窗