AI伦理就是关于权力的

在最近在梵蒂冈举行的数字时代技术会议上,教皇弗朗西斯敦促Face book高管、风险资本家和政府监管机构警惕人工智能和其他技术的影响。 他表示:“如果人类所谓的技术进步成为共同利益的敌人,这将导致一种由最强大的法律支配的野蛮形式的不幸倒退。

在一次相关但背景不同的谈话中,今年夏天,JoyBuolamwini在国会与Rep.AlexandriaOcasio-Cortez(D-NY)作证说,多项审计发现,面部识别技术通常对白人男性最有效,对有色人种女性最差。

这两个事件的共同点是它们与AI道德辩论中权力动态的关系。

关于人工智能伦理的争论可以不提“权力”这个词,但它往往就在表面之下。 事实上,它很少是直接的焦点,但它需要。 人工智能中的力量就像重力,一种无形的力量,影响着人工智能中对伦理的每一种考虑。

权力提供了影响哪些用例是相关的;哪些问题是优先事项;以及工具、产品和服务是为谁服务的手段。

它是关于公司和国家如何制定技术使用政策的辩论的基础。

它存在于AI关于民主化、公平和负责任的AI的对话中。 当谷歌首席执行官SundarPichai将AI研究人员转移到他的办公室时,顶级机器学习从业者就像现代哲学家国王一样被对待。

就在这里,埃隆·马斯克(Elon Musk)等人阐述了未来人工智能技术可能在未来几十年给人类带来的恐怖,尽管面部识别技术如今已经被用于大规模跟踪和拘留中国维吾尔穆斯林人口。

而且,当消费者觉得数据保护是无望的,或者工程师知道某些东西在道德上是有问题的,但却看不到追索权的途径时,就会出现。

广义地说,创业公司可能会把道德看作是一个很好的补充,但不是必须的。 致力于率先上市和满足产品发布期限的工程师可能会嘲笑这样一种观念:把宝贵的时间留在考虑道德问题上。 首席执行官和政治家可能只是口头上讲道德,但最终只会发出同情的信号或从事道德清洗。

但人工智能伦理不仅仅是一种感觉良好的附加-一种想要,而不是一种需要。 大赦国际被称为21世纪的重大人权挑战之一。 它不仅仅是做正确的事情或使最好的人工智能系统成为可能,它是关于谁掌握权力,以及人工智能如何影响它所触及的一切权力平衡。

这些权力动态将定义商业、社会、政府、世界各地个人的生活、隐私的未来,甚至我们的未来权利。 几乎每个AI产品经理都喜欢说,事情刚刚开始,但如果不能解决AI时代不平衡的权力动态,可能会产生危险的后果。

各种趋势的汇合导致人工智能在历史上一个不稳定的时期今天重新出现。 深度学习、云计算、GPU等处理器以及更快地训练神经网络所需的计算能力——这些技术已成为主要科技公司的基石——推动了今天的复兴。

第四次工业革命正伴随着历史性的收入不平等和新的镀金时代而发生。 就像19世纪那些利用急于将作物推向市场的农民的铁路大亨一样,拥有专有数据集的科技公司利用人工智能进一步巩固他们的市场地位和垄断。

当数据比石油更有价值时,拥有有价值数据的公司具有优势,最有可能巩固财富或行业领导者的地位。 这当然适用于苹果、Face book、谷歌、IBM和微软等知名企业,但对传统企业也是如此。

与此同时,并购继续加速和进一步巩固权力,这一趋势抑制了其他趋势,因为研发几乎完全属于大型企业。 一项2018年SSTI分析发现,拥有250名员工或以上的公司占研发支出的88.5%,而拥有5000名员工或以上的公司占研发支出的近三分之二。

根据斯坦福人类中心人工智能研究所(HA I)最近的一份报告,人工智能的日益扩散可能导致社会的巨大不平衡。

“人工智能的潜在金融优势如此之大,人工智能拥有和拥有之间的鸿沟如此之深,以至于我们所知道的全球经济平衡可能会被一系列灾难性的结构性变化所动摇,”HAI提出的一项建议呼吁美国政府在未来十年内将1200亿$投资于教育、研究和创业投资。

该提案的合著者是前谷歌云首席人工智能科学家李菲菲博士。 她说:“如果引导得当,人工智能时代将为所有人带来生产力和繁荣的时代。 ”普华永道估计,到2030年,人工智能将为全球经济提供$15.7万亿美元。 然而,如果我们不负责任地利用它,公平地分享收益,它将导致少数精英更集中的财富和权力,他们迎来了这个新时代——贫困、无力和全球大多数人失去了目标感。

麻省理工学院数字经济倡议主任ErikBrynjolfsson研究了人工智能对未来工作的影响,并于最近在斯坦福人工智能伦理研讨会上发言。 关于适合机器学习的工作数量,未来几年可能会被取代,Brynjolfsson说:“如果你看一下整体经济,就会有一个潮流。 它还没有被击中。

Brynjolfsson说,机器智能可以用来重新设计和增强工作场所的任务,但它通常被用来取代工作。

根据布鲁金斯学会的分析和卡内基梅隆大学的Brynjolfsson和Tom Mitchell的研究,自动化对失业的影响预计会因城市和州而异。 例如,加州的弗雷斯诺将比明尼阿波利斯受到更大的打击,但就业不稳定或失业预计将不成比例地影响低收入家庭和有色人种。 McKinsey最近的一份报告说,由于自动化,非裔美国人的失业人数预计最多。

自2000年以来,美国收入中位数一直停滞不前。 与生产率提高相关的中位收入增长的终结,是布林约弗森所说的“大脱钩”。

他说:“在20世纪的大部分时间里,这些角色——更多的生产、更多的财富、更多的生产力——与典型的人生活得更好并驾齐驱,但最近这些界限已经不同了。 “好吧,馅饼越来越大,我们正在创造更多的财富,但它将流向越来越小的人群。

Brynjolfsson认为,人工智能社区的挑战在最先进的人工智能领域带来了巨大的飞跃,如DARPA自动车辆挑战和计算机视觉图像网络,但企业和人工智能社区应该开始将注意力转向共同繁荣。

“很多人都有可能被抛在后面,事实上,很多人都有。 这就是为什么我认为现在最紧迫的挑战不仅仅是更好的技术,尽管我完全支持这一点,而是创造共同的繁荣,“他说。

人工智能传播的另一个主要趋势是,在美国历史上第一次,大多数劳动力都是有色人种。 根据美国人口普查的预测,到2030年,美国的大多数城市——以及随着时间的推移,整个国家——将不再拥有种族多数。

这些人口变化使得人工智能公司内部缺乏多样性变得更加明显。 关键的是,在决策系统的创建中缺乏种族和性别多样性——现在的AI研究所所长凯特·克劳福德(Kate Crawford)称之为AI的“白人问题”。

上图:谷歌2019年技术劳动力代表性性别和种族统计数据

根据Wired和ElementA I2018年的一项分析,在主要人工智能会议上发表的研究只有18%是女性,而在Face book和谷歌,只有15%和10%的研究人员是女性。 两家公司的发言人说,谷歌和Face book没有提供AI研究的多样性数据。

上图:按性别分列的Face book技术劳动力

AINow Institute今年4月发布的一份报告详细描述了“负责技术研究的工程队列与部署AI系统的多样化人群之间的鲜明文化鸿沟”。

该报告还认识到人工智能系统中隐藏的人类劳动,比如Face book或YouTube内容所需的数万名主持人,或者哥伦比亚远程驾驶Kiwibot送货机器人的远程在场司机,这些机器人位于旧金山湾区的加州大学伯克利分校附近。

上图:按族裔分列的Face book技术劳动力

该报告指出,人工智能产业中缺乏政府监管,权力集中在少数几家公司。

萨菲亚·诺布尔博士和莎拉·罗伯茨博士在8月份发表的加州大学洛杉矶分校的一篇论文中记录了科技产业缺乏多样性的影响。 合著者认为,我们现在正在目睹“数字技术统治的崛起”,它掩盖了自己是后种族和任人唯贤的,但实际上是一个囤积资源的权力系统,很可能根据种族认同、性别或阶级来判断一个人的价值。

“美国公司无法“自我调节”和“创新”以结束种族歧视——即使是在联邦法律下。 在现代数字技术精英中,精英统治和智力优势的神话被用作种族和性别的标志,不成比例地巩固了有色人种的资源,特别是非洲裔美国人、拉丁裔和美洲土著人。 “对精英神话的投资抑制了对种族主义和歧视的质疑,即使数字精英的产品充斥着种族、阶级和性别标记。

尽管谈论如何解决技术的多样性问题,但许多技术行业只取得了渐进的进展,为拉丁裔或黑人创始人创业的资金仍然落后于白人创始人。 为了解决科技行业在多样性和包容性举措上普遍缺乏进展的问题,一对数据和社会研究员建议科技和人工智能公司接受种族素养。

其中一名研究员Mutale Nkonde是《算法问责法》的共同作者,该法是国会两院今年早些时候通过的立法,该法规定联邦贸易委员会(F TC)对算法偏差进行评估,并允许该机构根据公司规模发出罚款。

她也是AI的执行董事,为人民和一个伯克曼克莱因中心的互联网和社会在哈佛大学的研究员。 她现在正在努力评估如何利用人工智能和错误信息在2020年选举中针对非裔美国人。 参议院情报委员会10月发布的一项调查发现,干预2016年选举的步骤在Face book、Twitter和Instagram上挑出了非裔美国人。

在此之前,她和一个小团队致力于推进种族素养的理念。

恩孔德和他的合著者认为,像隐性偏见培训和多样性计划——由发布年度多样性报告的科技巨头所倡导——未能在创造一支看起来像其用户的科技员工队伍方面发挥作用。 为了取得有意义的进展,企业应该抛开模糊的愿望,开始采取实际步骤来教育人们的种族素养。

一篇解释种族素养框架的论文写道:“建设技术领域种族素养能力的真正目标是想象一个不同的世界,一个我们可以摆脱旧模式的世界。 “如果不刻意努力解决技术领域的竞争问题,新技术将不可避免地重现旧的分歧。 但不一定是这样。

合著者希望种族素养成为计算机科学学生课程和技术公司员工培训的一部分。 他们的方法借鉴了霍华德·史蒂文森(Howard Stevenson)对学校的种族素养培训,包括隐性关联测试,以确定人们持有的刻板印象。

种族素养旨在为人们提供培训和情绪智力,以解决工作场所种族压力的情况。 这可能包括计算机科学家和设计师,以及机器学习工程师,使他们能够公开谈论一种产品或服务如何使结构性种族主义永久化或对不同用户群体造成不利影响。

目的是让人们以开放和非对抗的方式谈论产品或服务可能出错的地方。 在对中型和大型科技公司员工的访谈中,研究人员发现,在许多科技公司,面对与种族有关的问题是禁忌的。

“采访中出现的许多障碍,甚至是我们生活中的轶事,都是人们不想承认种族。 他们想假装这不重要,每个人都是一样的,而这实际上是强化种族主义模式和行为,“恩孔德说。 “这意味着企业必须明确自己的价值观,而不是试图通过避免表达自己的价值观而成为所有人的一切。

恩孔德认为,种族素养将变得越来越重要,因为像Alphabet这样的公司创造的产品对人们的生活至关重要,比如医疗服务或卖给政府的面部识别软件。

种族素养培训的另一个预期结果是在公司内部创造一种文化,在多样化的劳动力中看到价值。 波士顿咨询集团(Boston Consulting Grou p)去年发布的一项研究发现,具有更多多样性的组织的收入和创新率较高。 但是,如果招聘和保留人数是任何迹象的话,这一信息似乎并没有到达硅谷的科技巨头。

在高级软件工程师纪尧姆圣雅克认为人工智能伦理不仅仅是正确的事情,它有合理的商业意义。 圣雅克说,“公平项目”背后的一个人说,偏见会妨碍利润。

他说:“如果你很有偏见,你可能只会迎合一个群体,最终这限制了你的用户群的增长,所以从商业角度来看,你实际上想让每个人都加入进来.从长远来看,这实际上是一个很好的商业决策。

强大的公司可能以不同的方式屈服于他们的力量,但他们的商业计划对个人有影响。

也许,这种新的权力动态的最好的总结来自哈佛商学院退休教授ShoshanaZuboff的监视资本主义时代。 这本书详细介绍了一种新形式的资本主义,它将相机、智能家居设备和智能手机等传感器结合起来,收集数据,输入人工智能系统,对我们的生活进行预测-比如我们将如何作为消费者-以便“在规模上了解和塑造我们的行为。”

“监视资本主义单方面声称人类经验是将其转化为行为数据的免费原材料。 虽然这些数据中的一些[点]被应用于产品或服务的改进,但其余的被宣布为专有的行为剩余,被输入被称为“机器智能”的先进制造过程,并被制造成预测产品,预测你现在、不久和以后所做的事情,“Zuboff写道。

她认为,这一经济秩序是由谷歌在硅谷创造的,但后来被亚马逊、Face book和微软以及百度和腾讯等中国同行所采纳。

祖博夫将监控资本主义描述为一种前所未有的权力形式,目前很少有人完全理解这种权力形式,并表示目前没有有效的集体或政治行动手段来对抗这种权力。

她质疑当市场“转变成一个完全确定的项目”时,监控资本主义可能对人性造成的破坏。祖博夫说,如果不加以控制,这种相对新的市场力量可以推翻人民的主权,成为对西方自由民主国家和能够“想象、意愿、承诺和构建未来”的概念的威胁。

这些大公司“从我们那里积累了大量的新知识,但不是为我们积累的,”她写道。 “他们预测我们的未来是为了别人的利益,而不是我们的利益。 只要监控资本主义及其行为期货市场得以繁荣,新的行为改造手段的所有权就会在21世纪取代生产资料的所有权,成为资本主义财富和权力的源泉。

祖博夫认为,监控资本主义的一个关键副产品是压倒性的无助感。 当人们耸耸肩说大科技公司拥有巨大的资源和财富时,你就会看到这一点。

举报人爱德华·斯诺登似乎同意祖博夫的评估。

斯诺登在最近的NBC新闻采访中说,企业和政府越来越多地将元数据收集用于影响人类生活的决策,从用移动设备跟踪你的行动到中国的“社会信用评分”。

“这些活动记录正在被公司和政府创建、共享、收集和截获。 最终,这意味着当他们出售这些,当他们交易这些,当他们在这些记录的背后做他们的业务,他们出售的不是信息。 他们卖的是我们。 他们在出卖我们的未来。 他们在出卖我们的过去。 他们在出卖我们的历史,我们的身份,最终,他们正在窃取我们的力量,让我们的故事为他们工作,“他说。

普林斯顿大学副教授鲁哈·本杰明(Ruha Benjamin)也关注代理问题,因为无论是人们支持人工智能带来的末日还是乌托邦,都在谈论把权力让给机器。

本杰明在肯尼亚内罗毕肯雅塔大学(Kenyat ta University)举行的深度学习Indaba上说:“无论是科技拯救我们还是毁灭我们,都在放弃权力。 “他们都放弃了我们在设计这些技术系统中的作用——我们不只是将其他人创建的东西提交给默认设置,而是实际上试图将我们自己的价值观和想象力嵌入到这些结构中,因此我们希望超越技术决定论。

一个非常不同的个人权力的体现已经出现在主要公司内部。 例如,大约一年前,世界各地超过2万名谷歌员工辞职,抗议多种道德问题。 其中包括Android创始人安迪·鲁宾(Andy Rubin)在被指控的性骚扰、强制仲裁的结束以及谷歌参与五角大楼的Maven项目后$的9000万美元。

在数千名谷歌员工签署一封信抗议该公司参与无人机目标检测人工智能项目几个月后,谷歌承诺在2019年结束其Maven合同,并发布了一套人工智能原则,其中包括承诺不制造自主武器。

同样,Face book的工作人员也呼吁首席执行官马克·扎克伯格(MarkZuckerberg)对政治广告进行事实检查或禁止,而微软和GitHub的员工则呼吁终止与ICE的合同,ICE是国土安全部执行特朗普驱逐和拘留政策的机构。

挑战大科技公司需要勇气和组织——尤其是那些被雇佣的大科技公司——但这些抗议活动表明,即使面对庞然大物,个人也能重新获得一些代理。

随着人工智能目前的复苏,埃隆·马斯克(ElonMusk)已经成为现代保罗·里维尔(Paul Revere),敲响了关于杀手机器人和人工智能(AGI)的警钟。 当弗拉达米尔·普京(VladamirPutin)有一句名言说,控制AI的国家将控制世界时,马斯克回答说,他认为AI的军备竞赛将导致第三次世界大战。

马斯克加入了4500多名人工智能和机器人研究人员,并签署了一份“为未来而战”公开信,反对在没有人类干预的情况下行动的自主武器。 如果或当各国引进自主杀手机器人时,有能力选择人们的生死,它们确实可能成为权力的最终表达。

但是,尽管像麝香这样的数字过分注重假设,面部识别在香港已经被使用了——这可能是政府颁布禁止面具的主要原因——而底特律警察局已经在测试实时面部识别。 同时,算法正在返回被认为对数百万非裔美国人的生活产生负面影响的结果,对非二元性别的人和有色人种的表现很差。

像终结者天网这样的AGI场景可能还没有出现,但军方已经在考虑人工智能的伦理应用。

随着中国和俄罗斯加大投资力度,五角大楼考虑下一步措施,人工智能在国家军队中的扩散是一件令人担忧的事情。

一年前,国会成立了国家人工智能安全委员会,上周发表了一份关于人工智能对战争影响的报告草稿。 关键在于“人工智能的发展将如何塑造权力的未来”,以及美国如何保持经济和军事优势。

一周前,一个由科技高管和AI专家组成的董事会向国防部介绍了AI道德原则的建议。

国防部目前正在考虑这套人工智能伦理原则,这套原则是由美国一些首席技术人员起草的,比如前谷歌首席执行官埃里克·施密特、麻省理工学院CSAIL董事DanielaRus和Linked In联合创始人里德·霍夫曼。

研究人员和立法者说,在2020年美国总统大选年,地震是一个特别令人担忧的问题。 而BOT网络正在Twitter上被用来放大国家议程,比如在前华盛顿邮报记者贾迈勒·哈肖吉(Jamal Khashoggi)被谋杀后支持沙特阿拉伯政府的机器人,或者在2016年努力争取唐纳德·特朗普当选总统的俄罗斯机器人。 还发现,机器人是俄罗斯在南非开展的影响运动的一部分。

虽然围绕使用人工智能控制在线政治演讲而展开的战斗,但新的问题仍在不断出现,比如导致中介和宣传组织要求技术巨头禁止使用算法取代法官进行审前保释评估的偏见。

由AI研究人员在苹果、Face book和谷歌等公司创建的AI合作伙伴关系将大赦国际和人权观察等团体与世界上最大的AI公司聚集在一起。 在今年夏天接受Venture Beat采访时,执行董事TerahLyons说,考虑到AI将如何影响社会,权力是非政府组织和科技巨头之间AI道德辩论的核心。

她说:“我认为这是核心和关键,在我们的工作中,我们在权力方面考虑得很多,因为除非你在谈论它,否则这是一场贫困的谈话。 “权力是(如果不是)核心问题之一。

她认为,人工智能行业缺乏多样性,对系统和工具的建设和部署方式以及技术公司和机构内个人的权力和影响力缺乏相应的影响力,这正在发挥作用。

当民间社会和资源有限的非营利机构与资源丰富的科技巨头合作时,记住这些动态也很重要。 像人工智能伙伴关系和斯坦福人为中心的人工智能研究所这样的团体支持这种多利益攸关方的方法来创建有代表性的过程,但非营利组织的工作人员往往负担不起乘坐飞机参加人工智能利益攸关方会议的伙伴关系,例如,像技术巨头的员工一样。

她表示:“与这些大型、特别是资源充足的科技公司相比,它们的实力和资源在很多方面都有所不同,因此,更有效地赋予它们权力,我认为这是你如何开始为有效合作创造公平竞争环境的一大部分。

同样的旅行限制也会影响到有兴趣参加国际会议的AI研究人员。 去年,加拿大蒙特利尔NeurIPS的一个人工智能研讨会的大约一半与会者的签证申请被移民官员拒绝,申请人今年再次报告了同样的情况。 类似的事件导致了人工智能伙伴关系敦促各国为人工智能研究会议旅行创造特殊签证,就像世界一些地区为医疗专业人员、运动员和企业家提供的签证一样。

卡斯珀·克林吉是丹麦驻硅谷大使。 一些国家在湾区设有商业和创新中心,但克林格是第一位派往硅谷的大使,专门代表一个国家的外交利益。

丹麦政府派他与苹果、亚马逊、谷歌和Face book等公司打交道,这些公司积累了世界上大部分人工智能人才,成为全球超级大国。 克林格认为更多的小国也应该这样做,这样他们才能在共同的目标上共同努力。 在担任这一职务的两年里,克林格说,他了解到,与其他小国联合起来的多边联盟建设是他工作的一部分。

垄断企业对政府来说并不新奇,但克林格说,像自主驾驶和搜索这样的人工智能改变了游戏,使这类技术公司比许多其他国家更重要,并激发了对丹麦所谓的技术能力的需求。

在上个月接受Venture Beat采访时,Klynge认为,科技巨头扭曲了国际关系的本质,并创造了一个新的现实,即各国必须像对待全球超级大国一样对待科技巨头。

“我们不能再把它们看作是中立的平台,它只是人们想做的任何事情的中立提供者。 我认为我们必须以更成熟和负责的方式对待他们,这也意味着我们不那么天真,我们更平衡,也提出要求,让他们负责,“他说。 “我的工作只是我们试图做的更系统的事情的一个症状,以获得对科技公司和技术本身更平衡、更现实的看法。

权力在人工智能伦理辩论中无处不在,但这并不意味着我们必须保持无能为力。 正如种族素养项目所表明的,还有另一种方法。

这是鲁哈·本杰明在她说科技需要“社会公正的想象力”时所呼吁的,也是凯西·奥尼尔在她的“数学销毁武器”一书中提到的。

“大数据进程将过去编成法典。 他们不创造未来。 这样做需要道德想象力,而这是只有人类才能提供的东西,“她写道。

一种扭曲的权力动态使像“民主化”这样的词几乎毫无意义,但将人工智能交到更多解决大问题的人手中可以显著改变对人工智能的看法,并扩大其对社会的积极影响。

当然,已经有许多人工智能被用来改善人类生活的例子。 麻省理工学院的研究人员创建了一种算法,使孩子们更快地上学,并节省了波士顿学区每年500万$交通费。 FDNY和NYU正在利用人工智能来改善紧急反应时间,方法是了解最有效的到达场景的路线-几十个Google.org项目之一,采用数据驱动的方法为人类创造人工智能。 人类正在利用人工智能建造更高效的温室和提高作物产量,这些进步可以帮助避免未来几十年的饥饿,并在全球人口膨胀到100亿时养活世界。 上和上的例子去。

但是,当我们谈论能够预测未来、颠覆经济和社会秩序、将人们关进监狱或对我们的健康做出决定的技术时,就在令人印象深刻的技术进步的表面之下,必然会发生一场权力斗争。

在人工智能系统中,权力动态是这样的:在保释评估、影响数百万人的医疗保健、无家可归的服务和面部识别方面,有色人种的表现较差。

当欧盟人工智能专家敦促各国避免大规模监控,而是使用人工智能来增强和增强人的力量时,也是如此。 三星和联合国提出了利用人工智能实现可持续发展目标的倡议。

它存在于fast.ai等开放教育项目和一项芬兰倡议中,以教育该国一部分人口了解人工智能的基本知识。

正如数字中心丹麦首席执行官卡米拉·赖加德-赫尔斯特德最近在一次采访中所建议的那样,积极的气候变化目标可以帮助招募人工智能人才,或者机器学习应用于气候变化的愿景可能是人工智能的伟大卫星。

它存在于刚刚起步的AI对话项目中,以保护兵役成员的子女,检测何时可能发生帮派枪击,或为巴基斯坦的十几岁女孩提供实地性健康问题。

它存在于Masakhane等开源项目中,该项目正在为2,000多种非洲语言创建机器翻译。 该项目目前有来自非洲大陆各个角落的60名贡献者参与制作能够保存和翻译这些语言的人工智能。 根据联合国的估计,从现在到2050年,非洲拥有地球上任何一个大陆最年轻的人口,将占全球人口增长的一半以上。 在非洲,机器翻译可能是重要的,以推动对话人工智能,沟通和商业在线和现实世界。

过去三年来,Kathleen Siminyu领导了肯尼亚内罗毕妇女机器学习和数据科学分会。 “我认为语言是一个障碍,如果被消除,许多非洲人就能够参与数字经济,最终参与人工智能经济。 所以是的,作为坐在这里为当地语言建设的人,我觉得我们有责任把不在数字时代的人带到人工智能时代,“她在一次电话采访中告诉Venture Beat。

如果你只关注人工智能伦理辩论的一部分,很容易得出这样的结论:使人工智能伦理成为工程和设计过程的一部分是某种政治上正确的、企业社会责任的要求,可以阻碍真正的进步。

不是的。 人工智能伦理意味着让模型成为最好的方式,人类在头脑中和循环中,它对未来的技术和系统是必不可少的,人们选择运行世界。

当我们对未来没有其他愿景时,这些权力动态似乎是最令人畏惧的,除了一个在全球监视状态下走向第三次世界大战的失业星球之外,没有其他可能性。

在规划通往更美好世界的道路时,必须认识到正在发挥的力量动态,因为正如人工智能本身可以是一种工具或武器一样,它可以赋予个人和整个社会权力或使其处于不利地位。 初创企业、科技巨头和希望有一个更美好世界的社区都有责任梦想什么是可能的,并分享这些愿望。

人工智能正在改变社会,它不能只是少数特权阶层来决定这种情况将如何发生或塑造这个世界的样子。

相关推荐