Text 3

This year marks exactly two centuries since the publication of Frankenstein; or, The Modern Prometheus, by Mary Shelley, Even before the invention of the electric lightbulb, the author produced a remarkable work of speculative fiction that would foreshadow many ethical questions to be raised by technologies yet to come.

Today the rapid growth of artificial intelligence (Al) raises fundamental questions:“ What is intelligence, identity, or consciousness? What makes humans humans?”

What is being called artificial general intelligence, machines that would imitate the way humans think, continues to evade scientists. Yet humans remain fascinated by the idea of robots that would look, move, and respond like humans, similar to those recently depicted on popular sci-fi TV series such asWestworldandHumans.”

Just how people think is still far too complex to be understood, let alone produced, says David Eagleman, a Stanford University neuroscientist. “ We are just in a situation where there are no good theories explaining what consciousness actually is and how you could ever build a machine to get there.”

But that doesn't mean crucial ethical issues involving Al aren't at hand. The coming use of autonomous vehicles, for example, poses thorny ethical questions. Human drivers sometimes must make split-second decisions. Their reactions may be a complex combination of instant reflexes, input from past driving experiences, and what their eyes and ears tell them in that moment. AIvisiontoday is not nearly as sophisticated as that of humans. And to anticipate every imaginable driving situation is a difficult programming problem.

Whenever decisions are based on masses of data, “ you quickly get into a lot of notes Tan Kiat How, chief executive of a Singapore-based agencyethical questions,” that is helping the government develop a voluntary code for the ethical use of Al. Along with Singapore, other governments and mega-corporations are beginning to establish their own guidelines. Britain is setting up a data ethics center. India released its Al ethics strategy this spring.

On June 7 Google pledged not todesign or deploy AIthat would causeoverall harm,” or to develop Al-directed weapons or use Al for surveillance that would violate international norms. It also pledged not to deploy Al whose use would violate international laws or human rights.

While the statement is vague, it represents one starting point. So does the idea that decisions made by Al systems should be explainable, transparent, and fair.

To put it another way: How can we make sure that the thinking of intelligent machines reflects humanity's highest values? Only then will they be useful servants and not Frankenstein's out-of-control monster.


【总体分析】:

来源:The Christian Science Monitor《基督教科学箴言报》2018.07.08。该文先退步介绍人工智能的技术发展现状:仍有很大局限性,难以复制人类意识;随后重点论述人工智能的伦理问题:AI引发的伦理问题日益凸显,必须确保AI的决策反映人类的最高价值观,才能使其真正有益于人类社会。

  1. Mary Shelley's novel Frankenstein is mentioned because it

    文章提及玛丽·雪莱的小说《弗兰肯斯坦》,是因为它________。

    解析

    【锁定答案】由题干中 Mary Shelley's novel Frankenstein 虽可直接定位至首段,但由 is mentionedbecause it可推断此题考査写作目的,故应结合文章话题及下文内容予以解答。首段以《弗兰肯斯坦》出版 200周年开篇,称赞著作者极有远见,在书中预言了未来(200年后的今天)技术将带来的道德问题,浏览下文发现只有篇末复现作品相关词 Frankenstein,而 AI、ethical、ethics 却贯穿全篇。由此推知,文章关注点并非《弗兰肯斯坦》本身,该小说只是作为开篇引子用以引出本文核心话题“与 AI相关的伦理道德问题”,也即,文章提及该小说是因为其预言了今天新科技(AI)所引发的道德问题,【A】正确。

    【排除干扰】【B】中 200 years 源自文首句中 two centuries,但原文意在说明“《弗兰肯斯坦》已经出版200年”,选项内容“《弗兰肯斯坦》持续受欢迎 200年”则不得而知。【C】中 fascinate 源自第三段②句,但原文意在说明“人类痴迷于某种'机器人’概念”,选项内容“全球科学家痴迷于《弗兰肯斯坦》”无从考证。【D】中 ethical controversies 源自首段末句中 ethical questions,但选项将引发伦理问题的主体由“新技术”偷换为“小说《弗兰肯斯坦》”。

    【提炼思路】本题就开篇引子(事例、故事、名人名言等)设置写作目的题。解题思路为:一、首先明确引子的作用:激发读者兴趣,为引人正题服务:二、分析选项:“能体现引子本身所涉内容”目“能和下文内容顺畅衔接(或反映全文主述话题)”的选项是正确项,“与引子所涉内容相悖/无关”或“无法与下文内容建立有效关联(偏离全文主述话题)”的通常是干扰项。如本题,【B】【C】【D】实际均囿于小说本身,而未与全文多次反复出现的 AI、ethical/ethics、questions/issues/problem 相关联,故均予以排除。


  2. In David Eagleman's opinion, our current knowledge of consciousness

    大卫·伊格曼认为,我们目前对意识的认识________。

    解析

    【锁定答案】由题干关键词 David Eagleman可直接定位至第四段。该段通过直接引用、间接引用两种方式指出伊格曼观点:人类思维方式(文中又指“意识”)极其复杂、难于理解,更甭提复制(思维方式意识)。换言之,人类目前对意识的认识还十分有限,尚且无法复制意识。【B】正确。

    【排除干扰】【A】利用第四段②句中 explaining what...and how...设障,却忽略其前否定表达 thereare no good theories,从而将文意“没有理论能够解释意识,更甭提去制造复制意识的机器(即'人工智能’)”曲解为“有助解释人工智能”。【C】虽复现第三段末 popular sci-fi TV series,但原文并未提及“我们目前对意识的认识”与热门科幻剧的关系,而且该处也并非伊格曼的观点。【D】中robot making虽与第四段段末 build a machine同义,但原文意在指出我们目前对意识的认识“阻碍(how you could ever)”而非“误导(misleading)”机器人的制造。

    【提炼思路】人物观点题的解题关键是把握人物观点表达中的情感色彩表达词以及特定特殊句式。如本题,定位段中 far too complex to be understood(强调否定意义的 too...to...“太……而不能……”结构)、let alone reproduced(常用于含否定意味的句子后表示进一步否定的 let alone“更不要谈”结构)、no good theories explaining(绝对表达 no“没有”)、how you could ever...(反问表达“你怎么可能……?”)等均透露出 David Eagleman对人类理解意识以及机器复制意识(即人工智能)的否定态度


  3. The solution to the ethical issues brought by autonomous vehicles

    对于自动驾驶汽车带来的伦理问题,其解决办法________。

    解析

    【锁定答案】根据题干关键词 the ethical issues brought by autonomous vehicles 定位至第五段。该段①句概述指出 AI相关伦理问题业已出现,②至⑥句进而以自动驾驶汽车引发的伦理问题予以说明。②句首先指出即将投入使用的自动驾驶汽车带来了棘手的伦理问题,③至⑥句以“AI(自动驾驶汽车)与人类驾驶员的差距”解释其棘手的伦理问题:人类驾驶员的决策过程十分短暂且极其复杂(③④句);而目前的 A技术不太成熟:AI眼力远不及人类,且编程上也很难穷举所有驾驶情景(⑤⑥句)。由此可知,我们目前仍无法解决自动驾驶汽车带来的伦理问题,【C】正确。

    【排除干扰】【A】can hardly ever be found 是对末句中 adifficult programming problem“一个有难度的编程问题”的绝对/全盘否定化。【B】【D】涉及大众对伦理问题解决办法的“好奇”“关注”,但文中并不涉及大众的关注和好奇。

    【提炼思路】本题考查事实细节,解题时应先确定解题范围,再注意对比选项与原文。题干autonomous vehicles 在第五段②句中复现,由该句中表示例证的 for example 可确定解题范围为该段②至⑥句;四个选项涉及“能否解决(hardly...found、beyond...capacity)”、“大众反响(public concern、much curiosity)”两大方向,②至⑥句分析现状“自动驾驶汽车带来的伦理问题相当棘手:目前的 AI 与人类驾驶员相比仍有很大缺陷(split-second、complex、not nearly as sophisticated,difficult programming problem)”,并不涉及大众看法,先排除【B【D】;剩余两项中,【A】过度推导,几乎全盘否定了解决问题的可能,过于绝对,【C】描述问题解决的现状,为正确项。


  4. The author's attitude toward Google's pledges is one of

    对待谷歌的承诺,作者持________态度。

    解析

    【锁定答案】由题干关键词 Google's pledges 初步定位至第七段,但由 The author's attitude 可知本题考查作者态度,故应注意上下文相关内容。第七段具体介绍了谷歌有关 A1的相关承诺,第八段①句作者随即做出点评,虽然谷歌的声明含混笼统,但它代表了一个起点。由此可知,作者认为谷歌声明虽有瑕疵,但总体值得肯定,【D】正确。

    【排除干扰】【A】contempt(意为 the feeling that sb/sth is without value and deserves no respect at all“蔑视;轻蔑;鄙视”)则明显与第八段首句主句中represents one starting point所传递的肯定语义色彩相悖。【B】skepticism由第八段首句 vague捏造而来,却忽视句中语义重心(While 预示主句为语义重点)represents one starting point 所传递的肯定语义色彩。【C】respect(语用色彩为 used for showing that you admire or strongly approve of someone or something“对……的赞赏或强烈支持”)由第八段首句主句中 represents one starting point捏造而来,却忽略其前让步从句中 vague 所传递的否定语义色彩。

    【提炼思路】本题考查作者态度,解题关键在于找准并理解体现作者态度的词(组)或表达。题干Google's pledges为作者评价对象,可据此初步定位至介绍谷歌承诺的第七段,作者态度可能出现在该段前后:第六段介绍各国政府举措,排除;第八段①句中作者先让步(While)指出谷歌声明的缺点“含混笼统”,随后肯定其优点“是一个起点”,由此可知作者对谷歌承诺总体持肯定态度。浏览四个选项,先排除带有明显负面色彩的【A】【B】,剩余选项只有【D】与作者客观肯定的态度相符,【C】有夸大赞誉之嫌。


  5. Which of the following would be the best title for the text?

    下列哪项是本文的最佳标题?

    解析

    【锁定答案】文章先以玛丽·雪莱巨著《弗兰肯斯坦》为引,提出全文话题:技术引发的伦理道德问题;尔后铺垫当前 AI技术的发展现状:尚且难以复制人类意识;随后指出当前 AI技术已然引发伦理问题,并对各国政府、企业的相关具体措施予以肯定;最后总结强调 AI必须反映人类最高价值观才能真正造福人类(言外之意:人类必须将自身价值观灌输给 AI)。综上可知,本文传达的主旨是:虽然目前的 AI无法复制复杂的人类意识(不具备复杂的道德意识),但为了应对日益凸显的 AI伦理问题,人类必须将自身道德观念灌输给 AI,让其具备“道德意识”,【A】为最恰当的标题,其中conscience 意为 the part of your mind that tells you whether your actions are right or wrong“良心,良知(心智的一部分)”。

    【排除干扰】【B】以开篇引子《弗兰肯斯坦》为标题,但它并非文章论述焦点。【C】中 Tech Giants 对应第六、七段提及的 mega-corporations、Google,无法概括全文,且文中并未明确指出 AI的未来掌握在技术巨擘手中。【D】近义复现末段 out-of-control monster,但选项只提及“问题(AI有可能失控)”,而未触及文章后半部分的语义重点“针对问题给出的建议/出路(要让 AI反映人类价值观)”。

    【提炼思路】本题考查标题,要求考生总体把握文章,梳理全文脉络时需着重把握文中两个关键词consciousness与 values 的语义逻辑关系“人类意识包含多个方面,价值观念/道德意识是其中一方面”,由此才能深层理解本文两大段群的行文逻辑:AI还无法复制包括道德意识在内的复杂人类意识(第二至四段),但为了应对日益凸显的 AI伦理问题人类必须将其道德意识灌输给 AI(第五至末段);【A】既抓住文章探讨核心,也涵盖了两大段群主旨。【B】【C】【D】或仅涵盖文章部分信息,或偏离论述焦点,均予以排除。


【全文翻译】:

今年恰逢玛丽·雪菜的《弗兰肯斯坦——现代普罗米修斯》出版二百周年。甚至早在电灯泡发明之前,这位作家就创作出了一部非凡推理小说,预测到未来技术将引发的诸多伦理问题。

如今,人工智能(AI)的快速发展引发了一些根本性的问题:“何谓智力、身份或意识?是什么让人成其为人?”

目前所谓的通用人工智能--模仿人类思维方式的机器--对科学家们来说一直扑朔迷离。然而,人类却仍然痴迷于像人类一样观察、行动和反应的机器人概念,就像《西部世界》《人类》等新近热门科幻电视剧所刻画的那样。

人类思维方式仍然极为复杂,难以理解,更不要说复制了,斯坦福大学神经科学家大卫·伊格曼表示。“我们面临的处境是,目前尚没有哪项理论能够解释意识究竟是什么,又怎能建造一台复制人类意识的机器呢。”

但这并不意味着与 AI有关的重要伦理问题尚未出现。例如,即将投入使用的自动驾驶汽车就带来了棘手的伦理问题。人类驾驶员有时必须在瞬间做出决策。他们的反应可能是一种复杂的组合,包括在那一瞬间的瞬时本能反应、过去驾驶经验的输入及其眼睛耳朵的所见所闻。AI目前的“眼力”远不及人类眼力那样精密复杂。而且预测所有可想象的驾驶情景是一个高难度的编程问题。

每每基于大数据决策时“你很快会陷入许多伦理问题,”新加坡某机构首席执行官陈杰豪说,该机构正在帮助政府制定一份确保 AI用途合乎道德的自愿行为守则。与新加坡一样,其他政府和超大型企业也开始制定自己的指导方针。英国正在建立一个数据伦理中心。印度于今年春天发布了 AI伦理战略。

6月7日,谷歌正式承诺不会“设计或部署会造成全面伤害的 AI”,不会开发由 AI指挥的武器,也不会利用 AI 进行违反国际规范的监视。它还承诺,不会部署用途有违国际法或人权的 AI。

虽然这种声明含混笼统,但它代表了一个起点。“AI系统做出的决策应该是可解释的、透明的且公平的”这一观念也是如此。

换句话说:我们如何确保智能机器的思维反映人类最高价值观?只有到那时,它们才会成为有用的仆人,而不是弗兰肯斯坦的失控怪物。