近日,英国科技信息平台Tech Nation和创业服务咨询机构Dealroom发布数据显示,2022年第二季度英国人工智能公司的风险投资数额创下纪录,全年总投资数额有望与2021年持平。然而,在人工智能如火如荼的当下,也有另一个声音在人们耳边徘徊:警惕人工智能的潜在危害。如同风暴中心,人工智能席卷了人们的生活,至今也饱受争议。那么在争论人工智能时,人们到底在谈论什么呢?
人工智能高歌猛进
作为欧洲人工智能之都,英国约有两千家人工智能公司。2021年,共计66亿英镑流入这些公司,总投资额度创下历史记录。2022年初至今,投资数额也已达到32亿英镑。Tech Nation指出,从历史趋势看,对人工智能公司的投资将在年底时大量增加,因此2022年投资总量有望与2021年持平。
早在2021年,英国政府就发布了国家人工智能战略(National AI Strategy),提出在未来十年增强英国人工智能发展的愿景。战略内容由三部分组成:第一,对人工智能生态系统的长期需求进行投资与规划;第二,支持向人工智能经济的过渡,确保人工智能惠及所有部门和地区;第三,确保英国对人工智能进行正确的国家和国际治理,保护公众和基本价值观。
战略发布后,各部门都采取了各自的行动。
卫生和社会保健部承诺继续支持人工智能和健康工作领域的创新者和研究人员,同时开发可信的研究环境助力安全访问健康数据,促进在健康领域采用安全、道德和有效的人工智能。
人工智能办公室则宣布,在原有1000个奖学金名额的基础上,为人工智能和数据科学转换课程硕士多提供2000个名额,帮助来自代表性不足群体的年轻人加入人工智能产业。英国财政部也宣布投资1.17亿英镑,用于英国各地的16个博士培训中心,该投资将进一步培养新一代的人工智能研究人员,在医疗保健、气候变化和商业创新等领域开发使用人工智能。
英国研究与创新署则宣布与人工智能芯片开发公司Graphcore和高性能计算公司Atos合作,共同探索工业创新,帮助企业获得超级计算、数据分析、人工智能和量子计算等技术能力。
非中立的技术力量
然而,像所有技术一样,人工智能不是中立的力量,它可以带来益处,但也有可能产生负面影响。已故理论物理学家斯蒂芬·霍金曾认为,人工智能对人类构成了生存威胁,而其他专家也对人工智能的潜在危险表示担忧。
例如,近日一项调查发现,36%的人工智能研究人员认为人工智能可能造成“核战争”规模的灾难。
该调查的对象为在2019~2022年间至少与人合著过两篇计算语言学出版物的研究人员。调查旨在呈现学术界对人工智能和人工通用智能(AGI,人工智能像人类一样思考的能力)的看法,以及探究研究者们认为人工智能将对社会产生何种影响。
研究指出,AGI是一个有争议的话题。对于我们是否正向它迈进,它应否是我们追求的目标,以及当人类到达那里时会发生什么,种种问题在学术界中都存在着巨大的意见分歧。
研究团队在调查中写道,73%的受访者同意,人工智能带来的自动化可能会在本世纪导致前所未有的社会变革,其规模至少与工业革命相当。但也有36%的受访者同意,人工智能可能在本世纪产生灾难性后果,甚至达到“全面核战争”的程度。
然而,在意见反馈部分,一些受访者反对“全面核战争”这一形容,表示,如果措辞没有这么极端,他们也会同意这一观点。
尽管有不少人认同AGI的潜在危害,但受访者压倒性地同意自然语言处理(简称NLP,人工智能的一个技术分支)对世界有积极影响,无论是在当下(89%)还是到未来(87%)。
研究团队写道,有相当一部分受访者同时同意“AGI可能是与全面核战争一样的灾难性事件”和“NLP对世界有整体的积极影响”,这表明他们可能认为NLP的积极影响潜力巨大,甚至超过了对人类文明的合理威胁。
最后,论文表示,潜在的灾难不是机器的错——而是我们的错。我们是“造物主”,人工智能由我们创造并控制。美国新闻记者戴伦·马修斯也表示,问题不是人工智能会突然失控决定毁灭人类,问题是我们可能给它模糊或不完整的指令,这将导致人工智能以我们意识不到的方式执行命令。“可怕的人工智能与我们疯狂的野心和不受约束的梦想有更多关系。这使我们看待道德、透明度和人工智能相关研究的目光变得复杂。”
欲思其利,必虑其害
虽然人工智能目前很难完成常识性任务,但它善于处理和分析海量数据,比大脑的速度快得多。
机器学习公司Spark Cognition的创始人兼首席执行官阿米尔·侯赛因表示,人工智能如同软件的第二次到来。“这是一种自己做决定的软件,即使在程序员未能预料的情况下也能采取行动。相较于传统软件,人工智能有更广泛的决策能力。”
这些特征使人工智能在许多行业都具有极高价值,侯赛因表示,在寻找计算机网络的防御漏洞方面,人工智能甚至是一个不可或缺的盟友。人工智能系统可以通过监测数据输入模式来识别网络攻击及其他网络威胁。“一旦检测到威胁,它便可以通过你的数据进行回溯,找到源头并帮助防止未来的威胁。这双额外的‘眼睛’将成为保护基础设施的关键手段。”
此外,人工智能可以替人类负担更危险的工作。科技巨头亚马逊已在其仓储中心推出完全自主的机器人,它们与人类一起工作,承担困难的体力劳动,使亚马逊的仓库工作变得更为安全。北美工会联盟2021年的一项研究结论表示,每100名亚马逊仓库工人中,就有5.9次严重受伤,这个比率比2020年仓储业所有其他雇主的重伤率(3.3)高出近80%。
然而,虽然自动化与人工智能将改变我们的工作方式,但人们也开始担心被机器取代并失去工作。有专家指出,到2030年,估计有7500万到3.75亿工人(占全球劳动力的3%到14%)需要转变工作方式和学习新技能。
对许多国家来说,过渡到自动化程度更高的世界将是一个重大挑战,因为难以保证工人都能获得帮助与支持,习得新工作所需的技能。特别地,自动化对低技能工作的影响更为明显,如行政、建筑或物流服务工作。因此,人工智能的扩张会减少受教育程度较低者的工作机会,而这种趋势可能会导致收入两极化和失业的大规模增长。
与此同时,作为社会或文化问题的“偏见”也同样存在于技术领域。算法的设计缺陷或错误、不均衡的数据都会导致有偏见的结果。换句话说,人工智能会复制社会中已有的种族、性别和年龄偏见,并加深社会和经济不平等。
例如,亚马逊曾开发新招聘引擎,采用人工智能对候选人的简历进行评分,以期识别出最优秀的人才。然而,在测试开始后不久,研究小组发现该系统并没有以性别中立的方式对候选人进行打分。与任何深度学习算法一样,该算法依赖于对历史数据的训练。然而,其使用的现实数据具有不平衡的性别分布,而人工智能也将其识别为性别偏见嵌入其中。
负责任地使用人工智能
因此,为应对人工智能的种种缺陷,英国下议院科学和技术委员会已启动对英国人工智能治理的调查,研究如何确保以道德和负责任的方式使用人工智能技术。
在2022年7月,英国数字、文化、媒体和体育部就提出了“一个有利于创新的人工智能监管框架”,强调需要一个明确的法律框架来处理目前治理方法中存在的模糊、重复、不连贯和监管空白问题。
而委员会将审查政府提出的方法,并特别关注算法偏见以及公共、私营部门的人工智能应用缺乏透明度的问题。
该调查还将探讨普通人应如何面对自动化决策,以及如何普遍解决人工智能系统带来的风险。这包括研究哪些机构应提供正式的监管监督,以及如何提高人工智能模型的可解释性。
“人工智能在改变几乎所有的研究和商业领域”,科学和技术委员会主席格雷·克拉克表示,“它具有非凡的潜力,但人们对现有的监管体系表示担忧。随着机器做出越来越多影响人们生活的决定,有效监管变得至关重要。我们期待着详细审查政府的建议。”
此外,2022年10月4日,美国白宫科技政策办公室发布《人工智能权利法案蓝图》,帮助指导人工智能和其他自动化系统的设计、开发和部署,保护美国公众的权利。政府表示,蓝图是为因算法改变而被剥夺健康福利的美国老人而定,为被人工智能监控错误指控为作弊的学生而定,也为因面部识别技术的错误被逮捕的父亲而定,是为每天与技术交互,但被不负责任的算法所影响的人而定。
法案包括五个方面的保护措施,分别是:
1.安全有效的系统。公众应受到保护,免受不安全或无效系统的影响。
2.算法歧视保护。公众不应受到算法歧视,系统应该以公平的方式使用和设计。
3.数据隐私。公众应通过内置的保护措施免受数据滥用的影响,他们应主动决定数据的使用方式。
4.通知和解释。公众应知道自动化系统何时被使用,并了解它在结果产出中起到了何种作用。
5.退出和人工替代方案。公众拥有终止人工智能程序的权利,并能接触到可迅速思考、补救当前问题的人。
美国政府表示,他们正召集所有人员——政策制定者、行业和社区人员——响应这一呼吁,并大胆采取行动,建立一个更公平、安全、公正的科技未来。《人工智能权利法案蓝图》还包含一个技术附录,为社区、行业、政府部门等人提供实例和具体操作步骤,以便将关键保护措施纳入政策制定与切实的技术设计过程。
来源:根据AInews、ITPro、Computerweekly、The Swaddle及政府官网等网站文章整合
整理:王雅静
特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。