资讯

美国布鲁金斯学会--人工智能是如何改变世界的?

翻译 2019-11-24 21:20 Mulang 来源:无人机网

摘 要

人工智能(AI)是一种广泛的工具,使人们可以重新考虑如何集成信息,分析数据以及使用所得到的见解来改善决策。很显然,AI已经在改变着人们的生活。在此报告中,Darrell West和John Allen讨论了AI在各个领域的应用,阐述了其在发展中的问题,并提出了在充分利用AI的同时仍需要保护人类的价值的建议。

目 录

I、AI的质量

II、AI在不同领域的应用

III、AI所是设计到的政策、法规和道德问题

IV、建议

V、结论

大多数人对人工智能(AI)的概念不是很熟悉。例如,2017年,当美国有1500名高级商业领袖被问及有关AI时,只有17%的人表示对AI很熟悉。他们中的许多人不确定这是什么或它将如何影响他们自己的公司。他们了解更改业务流程的潜力很大,但不清楚如何在自己的组织中部署AI。

尽管普遍缺乏熟悉性,但AI仍在改变着人们的生活。它是一个范围广泛的工具,使人们可以重新考虑我们如何集成信息,分析数据以及使用所产生的见解来改进决策。我们希望通过这份全面的概述向决策者,商业领袖和感兴趣的观察者解释AI,演示AI已如何改变世界,并对其与社会、经济和治理方面的影响提出重要课题加以阐述。

在本文中,我们讨论了AI在金融,国家安全,医疗保健,刑事司法,交通和智慧城市中的应用,并解决了诸如数据访问问题、算法偏见、人工智能伦理和透明度以及人工智能决策的法律责任等问题。我们对比了美国和欧盟的监管方法,最后提出了一些建议,以充分利用AI并同时保护人类的普遍的重要价观。 

为了最大程度地发挥AI的好处,我们建议进行以下九个步骤:

鼓励研究人员在不损害用户个人隐私的情况下获得更多数据访问权限。

在未分类的AI研究上投入更多的政府资金。

推进数字化教育和人工智能劳动力开发的新车型,以便员工有21所需要的技能ST-century经济。

创建一个联邦AI咨询委员会以提出政策建议。

与州和地方官员互动,以便制定有效的政策。

规范广泛的AI原则,而不是特定的算法。

认真对待偏见投诉,以便AI不会复制历史上的不公正,不公平或对数据或算法的歧视。

维持人类监督和控制机制,以及惩罚恶意AI行为并促进网络安全。

一、人工智能的特质

尽管没有统一的定义,但一般认为AI是指“基于人类具有的沉思、判断和意图的能力,对与人类传统反应一致的刺激作出感知并决策的机器。” 据研究人员Shubhendu和Vijay称。这些软件系统的“做出了通常需要[人类]专业水平的决策”,并帮助人们预见问题或在问题出现时处理问题。 因此,它们以有意识的、智能的和自适应的方式运行。

意向性

人工智能算法旨在经常使用实时数据进行决策。它们不同于仅具有机械或预定响应能力的无源机器。他们使用传感器,数字数据或远程输入来组合来自各种不同来源的信息,立即分析数据源,并根据这些数据得出的见解并采取行动。通过对存储系统,处理速度和分析技术的巨大改进,它们能够在分析和决策方面取得巨大的进步。

人工智能已经在改变世界,并给社会、经济和治理提出了重要课题。

情 报

人工智能通常与机器学习和数据分析结合在一起进行。 机器学习获取数据并寻找潜在趋势。如果发现与实际问题相关的内容,则软件设计人员可以利用该知识并将其用于分析特定问题。所需的全部是足够健全的数据,以使算法可以辨别有用的模式。数据可以采用数字信息、卫星图像、视觉信息、文本或非结构化数据的形式。

适应性

人工智能系统具有在决策时学习和适应的能力。例如,在交通区域,半自动驾驶汽车的工具可让驾驶员和车辆了解即将发生的交通拥堵,坑洼,高速公路建设或其他可能的交通障碍。车辆无需人工干预即可利用道路上其他车辆的经验,并且其所获得的“经验”的全部涵义可立即且完全转移到其他类似配置的车辆上。他们先进的算法,传感器和摄像头结合了当前操作的经验,并使用仪表板和可视显示器实时显示信息,从而使驾驶员能够了解当前的交通状况和车辆状况。对于全自动驾驶汽车。

二、在不同领域的应用

人工智能不是未来主义的愿景,而是当今存在的、与各种行业集成并部署到其中的事物。这包括金融、国家安全、医疗保健、刑事司法、交通和智慧城市等领域。有许多例子表明,人工智能已经在以巨大的方式影响着世界并增强了人类的能力。

人工智能发挥越来越大作用的原因之一是它为经济发展带来了巨大的机遇。普华永道(PriceWaterhouseCoopers)开展的一个项目估计,“到2030年,人工智能技术可使全球GDP增长15.7万亿美元,增幅达14%。其中包括中国7万亿美元、北美3.7万亿美元、北欧1.8万亿美元、非洲和大洋洲1.2万亿美元,除中国外,亚洲其他地区为0.9万亿美元,南欧为0.7万亿美元,拉丁美洲为0.5万亿美元。中国之所以取得长足进步,是因为它制定了一个国家目标,即在人工智能领域投资1500亿美元,并在2030年成为这一领域的全球领导者。

与此同时,中国的麦肯锡全球研究所的研究发现,“AI主导自动化可以给中国经济生产力注入,将增加0.8至1.4个百分点,对GDP增长每年,这取决于采用的速度。”虽然它作者发现,中国目前在AI部署方面落后于美国和英国,其AI市场的庞大规模为该国提供了进行试点测试和未来发展的巨大机会。

金 融

2013年至2014年,美国对金融AI的投资增加了3倍,总额达到122亿美元。根据该部门的观察员说,“现在正在通过软件来做出贷款决定,该软件可以考虑到有关借款人的各种经过精细分析的数据,而不仅仅是信用评分和背景调查。”此外,还有所谓的机器人顾问,“可以创建个性化的投资组合,从而消除了对股票经纪人和财务顾问的需求。”这些进步旨在使人们摆脱投资情绪,并基于分析性考虑做出决策,并在几分钟内做出这些选择。

一个显着的例子是在证券交易所中,那里的机器高频交易已经取代了许多人为的决策。人们提交买入和卖出订单,计算机在眨眼之间匹配它们,而无需人工干预。机器可以发现很小的交易效率低下或市场差异,并根据投资者的指示执行赚钱的交易。在某些地方通过先进的计算技术提供支持,这些工具具有更大的信息存储能力,因为它们不强调零或一,而是强调可以在每个位置存储多个值的“量子位”。大大增加了存储容量并减少了处理时间。

欺诈检测是AI在金融系统中提供帮助的另一种方式。有时很难分辨大型组织中的欺诈活动,但AI可以识别异常,异常值或异常案例,需要进行进一步调查。这有助于管理人员在周期中及早达到危险水平之前发现问题。

国家安全

人工智能在国防中起着重要作用。通过项目的Maven(知识的积累),美国军方正在部署AI“通过监测获得的数据和视频的大量troves和图案,然后警告人类分析师进行筛选,或者当有异常或可疑的活动。”根据美国国防部副部长现任代理国防部长帕特里克·沙纳罕(Patrick Shanahan)认为,该领域新兴技术的目标是“满足我们作战人员的需求,并提高技术开发和采购的速度和敏捷性。”

人工智能将如此迅速地加速传统战争进程,以至于创造了一个新名词:超战。

与AI关联的大数据分析将对情报分析产生深远的影响,因为近乎实时地(如果不是最终实时地)对海量数据进行筛选,从而为指挥官及其工作人员提供迄今为止从未见过的情报分析和生产力水平。当人类指挥官下达某些例行程序时,指挥和控制也将受到类似的影响,在特殊情况下,关键决策将交付给AI平台,从而大大减少了与决策和后续行动相关的时间。最后,战争是一个时间竞争的过程,在这一过程中,能够决定最快和最快地执行任务的一方通常会占上风。确实,与AI辅助的命令和控制系统绑定的人工智能系统,可以使决策支持和决策的速度大大超过传统发动战争的速度。这个过程将会如此之快,特别是如果结合自动决策来发射具有致命性的人工智能自主武器系统,则专门创造了一个新术语来包含发动战争的速度:超战。

尽管关于美国是否会使用人工智能自动杀伤系统发动战争的伦理和法律辩论仍在激烈进行,但中国和俄罗斯人并没有沉迷于这场辩论中,我们应该预见到我们有必要捍卫这些以超战速度运转的系统。西方国家在激烈的战争中如何定位“人在环内”的挑战最终将决定西方国家在这种新形式的冲突中具有竞争力的能力。

正如AI将深刻影响战争的速度一样,零日或零秒网络威胁以及多态恶意软件的扩散甚至将挑战最复杂的基于签名的网络保护。这迫使对现有的网络防御进行重大改进。脆弱的系统越来越多地迁移,并且将需要转向使用基于云的认知AI平台来实现网络安全的分层方法。这种方法使社区朝着一种“思维”防御能力发展,该能力可以通过对已知威胁进行不断的培训来防御网络。此功能包括对迄今未知代码的DNA级分析,并可能通过识别文件的字符串组件来识别和阻止入站恶意代码。这就是美国的某些关键。

因为中国、俄罗斯、朝鲜和其他国家正在将大量资源投入到AI中,因此,为超战做准备和捍卫关键网络网络必须成为高度优先事项。2017年,中国国务院发布了一项计划,到2030年“打造一个价值近1500亿美元的国内产业”。作为一种可能性的例子,中国搜索公司百度率先开发了一种面部识别应用程序,发现它缺少人。此外,深圳等城市将提供高达100万美元的资金来支持AI实验室。该国希望AI能够提供安全性,打击恐怖主义并改善语音识别程序。许多AI算法具有双重用途,这意味着专注于社会某一领域的AI研究也可以快速修改以用于安全领域。

卫生保健

AI工具正在帮助设计人员改善医疗保健中的计算复杂性。例如,Mercantix是一家德国公司,致力于将深度学习应用于医学问题。它在医学成像中的应用是“在计算机断层扫描(CT)图像中检测人体的淋巴结。”据其开发人员说,关键是标记结点并识别可能有问题的小病变或生长。人类可以做到这一点,但是放射科医生每小时收费100美元,并且每小时只能仔细读取四张图像。如果有10,000张图像,则此过程的成本将为250,000美元,如果由人类完成,这将是非常昂贵的。

在这种情况下,深度学习可以做的是在数据集上训练计算机,以了解正常外观的淋巴结与正常外观的淋巴结的区别。在通过成像练习并磨练标签的准确性之后,放射成像专家可以将这一知识应用于实际患者,并确定某人处于癌性淋巴结风险的程度。由于只有极少数的测试结果呈阳性,因此确定不健康节点与健康节点是一个问题。

人工智能还被应用于充血性心力衰竭,这种疾病困扰着10%的老年人,在美国每年造成350亿美元的损失。人工智能工具很有用,因为它们“预先预测潜在的挑战,并为患者的教育,感知和主动干预分配资源,使患者远离医院。”

刑事司法

大赦国际正在刑事司法领域部署。美国芝加哥市已经制定了一个由AI驱动的“战略主体清单”,该清单分析了因可能成为未来肇事者而被捕的人。它使用年龄,犯罪活动、受害、毒品逮捕记录和帮派关系等项对40万人进行分类,范围为0到500。分析人员在查看数据时发现,青年人是暴力的有力预兆,成为枪击案的受害者与成为未来的作案者有关联,帮派的隶属关系具有很小的预测价值,而逮捕毒品与未来的犯罪活动没有显着关联。

司法专家声称,人工智能程序减少了执法人员的偏见,并导致了更公平的判决系统。

基于经验的预测性风险分析问题发挥了机器学习,自动推理和其他形式的AI的优势。一项机器学习政策模拟得出的结论是,此类程序可用于将犯罪率降低至24.8%,而牢狱之罪没有变化,或者可以将监狱人数减少多达42%,而犯罪率却没有增加。

但是,批评者担心,人工智能算法代表“一种秘密系统,用以惩罚尚未犯罪的公民。人们担心,这样的风险评分已被无数次用于指导大规模的综述。人们担心这样的工具不公平地针对有色人种,并且没有帮助芝加哥减少近年来困扰它的谋杀热潮。

尽管存在这些担忧,其他国家还是在这一领域迅速部署。例如,在中国,公司已经拥有“大量资源,并且可以大量访问语音、面部和其他生物特征数据,这将有助于他们开发技术。”新技术使得将图像和语音与其他图像和声音进行匹配成为可能。信息类型,并在这些组合数据集上使用AI以改善执法和国家安全。通过其“敏锐的眼睛”计划,中国执法部门将视频图像、社交媒体活动、在线购买,旅行记录和个人身份匹配到“警察云”中。该集成数据库使当局能够跟踪犯罪分子,潜在的法律-破坏者和恐怖分子。换句话说,中国已成为世界领先的人工智能监控国。

运 输

交通代表着AI和机器学习正在产生重大创新的领域。布鲁金斯学会的卡梅伦·凯里(Cameron Kerry)和杰克·卡斯滕(Jack Karsten)的研究发现,在2014年8月至2017年6月之间,对自动驾驶技术的投资超过800亿美元。这些投资包括自动驾驶应用和对该领域至关重要的核心技术。

无人驾驶汽车-汽车、卡车、公共汽车和无人机运输系统-使用先进的技术能力。这些功能包括自动车辆导航和制动、换道系统,使用摄像头和传感器来避免碰撞,使用AI实时分析信息以及使用高性能计算和深度学习系统来适应通过详细地图了解新情况。

光检测和激光测距系统(LIDAR)和AI是导航和避免碰撞的关键。LIDAR系统将光和雷达仪器结合在一起。它们安装在车辆的顶部,这些车辆在360度环境中使用雷达和光束成像,以测量周围物体的速度和距离。这些仪器连同放置在车辆前,侧面和后部的传感器一起提供信息,使快速行驶的汽车和卡车保持在自己的车道上,帮助他们避开其他车辆,在需要时施加制动和转向,并立即执行操作以免发生意外。

先进的软件使汽车能够从道路上其他车辆的经验中吸取经验,并随着天气,驾驶或路况的变化而调整其引导系统。这意味着软件是关键,而不是汽车或卡车本身。

由于这些摄像机和传感器会收集大量信息,并且需要立即对其进行处理,以避免汽车驶入下一车道,因此自动驾驶汽车需要高性能的计算,先进的算法和深度学习系统,才能适应新的场景。这意味着软件是关键,而不是物理的汽车或卡车本身。先进的软件使汽车可以从道路上其他车辆的经验中学习,并根据天气,驾驶或道路状况的变化调整其引导系统。

拼车公司对自动驾驶汽车非常感兴趣。他们看到了客户服务和劳动生产率方面的优势。所有主要的乘车共享公司都在探索无人驾驶汽车。汽车共享和出租车服务的激增,例如美国的Uber和Lyft,英国的戴姆勒Mytaxi和Hailo服务以及中国的滴滴出行,都证明了这种交通方式的机遇。优步最近签署了一项协议,从沃尔沃购买24,000辆自动驾驶汽车,用于其乘车共享服务。

然而,这家拼车公司在2018年3月遭受挫折,当时其在亚利桑那州的一辆自动驾驶汽车撞死一名行人。Uber和几家汽车制造商立即暂停测试,并开始调查出了什么问题以及可能发生的致命事故。工业界和消费者都希望保证该技术是安全的,并且能够兑现其既定的承诺。除非有有说服力的答案,否则这起事故可能会减慢AI在运输领域的进步。

智慧城市

大城市政府正在使用AI改善城市服务的提供。例如,根据Kevin Desouza,Rashmi Krishnamurthy和Gregory Dawson的说法:

美国辛辛那提消防局正在使用数据分析来优化医疗应急响应。新的分析系统通过考虑多个因素(例如呼叫的类型,位置),向调度员建议对医疗紧急呼叫的适当响应(无论是可以在现场治疗患者还是需要将患者送往医院) ,天气和类似通话。

由于每年要处理80,000个请求,因此辛辛那提(Cincinnati)官员正在部署这项技术,以优先处理响应并确定处理紧急情况的最佳方法。他们将AI视为处理大量数据的一种方法,并找出了响应公共请求的有效方法。当局没有以临时方式解决服务问题,而是试图主动提供城市服务。

辛辛那提并不孤单。许多大都市地区正在采用智慧城市应用程序,这些应用程序使用AI来改善服务交付,环境规划、资源管理、能源利用和犯罪预防等。对于《智慧城市》指数,《快速公司》杂志对美国地区进行排名,并发现西雅图,波士顿,旧金山,华盛顿特区和纽约市是采用率最高的地区。例如,西雅图已经拥抱可持续性,并正在使用人工智能来管理能源使用和资源管理。波士顿启动了“城市呼叫系统”,以确保服务不足的社区获得所需的公共服务。它还部署了“摄像机和感应回路来管理交通和声学传感器以识别枪击。”旧金山已认证203座建筑物符合LEED可持续性标准。

通过这些和其他方式,大都市区在AI解决方案的部署方面处于领先地位。确实,根据全国城市联盟的报告,美国66%的城市都在投资智慧城市技术。报告中提到的最主要的应用是“用于公用事业,智能交通信号,电子政务应用,Wi-Fi信息亭和人行道上的射频识别传感器的智能仪表。”

三、政策、法规和道德问题

来自各个领域的这些例子证明了AI如何改变人类生活的方方面面。人工智能和自主设备在生活的许多方面的日益普及正在改变组织内部的基本操作和决策,并提高效率和响应时间。

但是,与此同时,这些事态发展引发了重要的政策,法规和道德问题。例如,我们应该如何促进数据访问?我们如何防范算法中使用的有偏见或不公平的数据?通过软件编程引入了哪些类型的道德原则,设计人员应该如何选择?在算法造成损害的情况下的法律责任问题呢?

人工智能在生活的许多方面的渗透日益增加,正在改变组织内部的决策并提高效率。但是,与此同时,这些事态发展引发了重要的政策,法规和道德问题。

资料存取问题

充分利用AI的关键是建立一个“具有统一标准和跨平台共享的数据友好型生态系统。” AI依赖于可以实时分析并处理具体问题的数据。在研究界拥有“可用于探索的数据”是成功开发AI的前提。

根据麦肯锡全球研究所的一项研究,促进开放数据源和数据共享的国家最有可能看到AI的发展。在这方面,美国比中国具有实质优势。对数据开放性的全球评级显示,美国在全球总体排名第8,而中国为93。

但是目前,美国还没有统一的国家数据策略。很少有协议可以促进研究访问或平台的发展,从而可以从专有数据中获得新的见解。谁拥有数据或在公共领域拥有多少数据并不总是很清楚。这些不确定性限制了创新经济,并拖累了学术研究。在以下部分中,我们概述了改善研究人员数据访问的方法。

数据和算法偏差

在某些情况下,某些AI系统被认为启用了歧视性或偏见性做法。例如,Airbnb被指控在其平台上歧视种族少数群体的房主。哈佛商学院进行的一项研究项目发现,“使用具有明显非洲裔美国人名字的Airbnb用户被接待的可能性要比具有明显白色人名的用户低大约16%。”

面部识别软件也会出现种族问题。大多数此类系统通过将人的脸部与大型数据库中的一系列脸部进行比较来进行操作。正如算法正义联盟的Joy Buolamwini所指出的那样:“如果您的面部识别数据主要包含白种人的面孔,那么您的程序将学会识别这些内容。”除非数据库可以访问各种数据,否则这些程序在试图识别非裔美国人或亚裔美国人的特征。

许多历史数据集反映了传统值,这些值可能代表也可能不代表当前系统所需的首选项。正如布拉姆维尼(Buolamwini)所指出的,这种方法可能会重复出现过去的不平等现象:

自动化的兴起和对高风险决策的算法的依赖越来越大,例如是否有人获得保险,您拖欠贷款的可能性或某人的累犯风险,这是需要解决的问题。甚至入学决定也越来越自动化-我们的孩子去哪所学校上学以及他们有什么机会。我们不必将过去的结构性不平等带入我们创造的未来。

AI的道德和透明度

算法将道德考虑和价值选择嵌入程序决策中。这样,这些系统就自动决策中使用的标准提出了疑问。有些人希望对算法的功能以及做出的选择有更好的了解。

在美国,许多城市学校都基于各种考虑因素(例如,父母的偏爱,邻里质量,收入水平和人口背景),使用算法进行入学决策。布鲁金斯大学的研究员乔恩·瓦兰特(Jon Valant)说,新奥尔良的布里科拉奇学院(Bricolage Academy)“将经济弱势的申请者的优先权提高到其可用席位的33%。不过,实际上,大多数城市都选择了优先考虑当前学生,在校学生的子女以及居住在学校广阔地理区域的家庭中的兄弟姐妹的类别。考虑到这一点,入学选择可能会有很大不同。排序发挥作用。

根据AI系统的设置方式,它们可以促进抵押贷款申请的重新编排,帮助人们歧视自己不喜欢的个人,或者根据不公平的标准帮助筛选或建立个人花名册。就系统如何运行以及它们如何影响客户而言,编程决策中考虑的因素类型非常重要。

出于这些原因,欧盟将于2018年5月实施通用数据保护条例(GDPR)。规则明确规定,人们有权“选择退出个性化定制广告”,并且“可以对由演算法”以及“如何吸引人为干预”的形式来解释该算法如何产生特定结果。每个指南旨在确保对个人数据的保护,并为个人提供有关“黑匣子”如何运作的信息。

AI的法律责任

关于AI系统的法律责任存在疑问。如果存在危害或违规行为(对于无人驾驶汽车,则是死亡事故),该算法的运营商很可能会属于产品责任规定。大量判例法表明,情况的事实和情况决定了赔偿责任并影响了所施加的处罚种类。罚款的范围从民事罚款到重大伤害监禁不等。亚利桑那州与Uber有关的死亡将是法律责任的重要测试案例。该州积极招募Uber对其自动驾驶汽车进行测试,并在道路测试方面给了公司很大的自由度。在此案中是否会提起诉讼以及被起诉的人还有待观察:诸如备用司机,发生事故的亚利桑那州菲尼克斯社区,Uber公司,软件开发商或汽车制造商。考虑到路试涉及的人员和组织众多,有许多法律问题需要解决。

在非交通领域,数字平台通常对其站点上发生的事情承担有限责任。例如,对于Airbnb,该公司“要求人们同意放弃起诉权,或参与任何集体诉讼或集体仲裁,以使用该服务。”通过要求其用户做出牺牲由于公司拥有基本权利,因此限制了消费者的保护,因此削弱了人们抵抗因不公平算法而产生的歧视的能力。但是中立网络的原则在许多领域是否成立尚待广泛确定。

IV、推荐和建议

为了在创新与基本人类价值观之间取得平衡,我们提出了一些有关人工智能发展的建议。这包括改善数据访问,增加政府对AI的投资,促进AI劳动力发展,建立联邦咨询委员会,与州和地方官员接触以确保他们制定有效的政策,规范广泛的目标而不是特定的算法,将偏见视为人工智能问题,维持人类控制和监督的机制,并对恶意行为进行惩罚并促进网络安全。

改善数据访问

美国应制定促进创新和保护消费者的数据战略。目前,在数据访问、数据共享或数据保护方面还没有统一的标准。几乎所有数据本质上都是专有数据,并未与研究团体广泛共享,这限制了创新和系统设计。人工智能需要数据来测试和提高其学习能力。没有结构化和非结构化数据集,几乎不可能获得人工智能的全部好处。

通常,研究社区需要更好地访问政府和商业数据,尽管要采取适当的保护措施以确保研究人员不会像Cambridge Analytica对Facebook信息那样滥用数据。研究人员可以通过多种方式获得数据访问权限。一种是通过与拥有专有数据的公司的自愿协议。例如,Facebook最近宣布与斯坦福大学经济学家拉吉·切蒂(Raj Chetty)建立合作伙伴关系,利用其社交媒体数据探索不平等现象。作为安排的一部分,研究人员被要求进行背景调查,并且只能访问安全站点中的数据,以保护用户的隐私和安全。

在美国,在数据访问,数据共享或数据保护方面没有统一的标准。几乎所有数据本质上都是专有数据,并未与研究团体广泛共享,这限制了创新和系统设计。

长期以来,Google一直以汇总形式向研究人员和公众提供搜索结果。通过其“趋势”网站,学者可以分析诸如对特朗普的兴趣,对民主的看法以及对整体经济的看法等主题。这有助于人们追踪公众利益的动向,并确定激发公众兴趣的主题。

Twitter通过应用程序编程接口(通常称为API)将大部分推文提供给研究人员。这些工具可帮助公司外部的人员构建应用程序软件并利用其社交媒体平台中的数据。他们可以研究社交媒体传播的模式,并了解人们对当前事件的评论或反应。

在某些具有明显公共利益的部门中,政府可以通过建立共享数据的基础结构来促进协作。例如,美国国家癌症研究所率先提出了一种数据共享协议,在该协议中,经过认证的研究人员可以使用从临床数据,理赔信息和药物疗法中获得的去识别信息来查询其拥有的健康数据。这使研究人员能够评估功效和有效性,并就最佳医疗方法提出建议,而不会损害个别患者的隐私。

可能存在将政府和业务数据集结合起来以提高系统性能的公私数据合作伙伴关系。例如,城市可以将乘车共享服务中的信息与其自身在社会服务位置,公交线路,公共交通和高速公路拥堵方面的资料相结合,以改善交通状况。这将有助于大都市地区处理交通阻塞问题,并有助于高速公路和公共交通的规划。

这些方法的某种组合将改善研究人员,政府和企业界的数据访问权限,而不会影响个人隐私。正如NVIDIA副总裁Ian Buck所说:“数据是驱动AI引擎的燃料。联邦政府可以访问大量的信息资源。公开访问这些数据将有助于我们获得深刻的见解,将改变美国的经济。”通过其Data.gov门户,联邦政府已经将超过23万个数据集放入公共领域,这推动了创新并提供了帮助。人工智能和数据分析技术的改进。私营部门还需要促进研究数据的访问,以便社会可以充分利用人工智能的利益。

增加政府对AI的投资

根据OpenAI的联合创始人Greg Brockman的说法,美国联邦政府仅在非机密AI技术上投资了11亿美元。远远低于中国或其他主要国家在这一研究领域的投入。由于AI的经济收益是巨大的,因此这一不足之处是值得注意的。为了促进经济发展和社会创新,联邦官员需要增加对人工智能和数据分析的投资。更高的投资可能会在经济和社会效益方面收回很多倍。

促进数字教育和劳动力发展

随着AI应用在许多领域的加速发展,至关重要的是,我们必须重新构想我们的教育机构,以应对AI将无处不在且学生需要与他们目前所接受的培训不同的世界。目前,许多学生尚未获得有关AI主导环境所需的各种技能的指导。例如,当前缺少数据科学家、计算机科学家、工程师、编码人员和平台开发人员。这些是供不应求的技能。除非我们的教育系统能培养更多具有这些能力的人,否则它将限制AI的发展。

由于这些原因,州和联邦政府都一直在投资AI人力资本。例如,2017年,美国国家科学基金会(National Science Foundation)资助了6,500多名计算机相关领域的研究生,并发起了一些新计划,旨在鼓励从学前教育到高等教育和继续教育的各个层面的数据和计算机科学。目标是建立更大的AI和数据分析人员流水线,以使美国能够充分利用知识革命的全部优势。

但是学习本身的过程也需要进行实质性的改变。AI世界不仅需要技能,还包括批判性推理、协作、设计、信息的可视显示和独立思考等技能。人工智能将重新配置社会和经济的运作方式,并且需要“大局”思考这对道德,治理和社会影响的意义。人们将需要具有广泛思考许多问题并整合来自许多不同领域的知识的能力。

IBM的Teacher Advisor计划是为学生为数字未来做好准备的新方法的一个例子,该计划利用Watson的免费在线工具来帮助教师将最新知识带入课堂。它们使讲师能够在STEM和非STEM领域中制定新的课程计划,查找相关的教学视频,并帮助学生充分利用课堂。因此,它们是需要创建的新教育环境的前身。

创建一个联邦AI咨询委员会

联邦官员需要考虑如何处理人工智能。如前所述,存在许多问题,从需要改进的数据访问到解决偏见和歧视问题。考虑到这些和其他问题至关重要,这样我们才能充分利用这项新兴技术的全部利益。

为了在这一领域取得进展,几位国会议员提出了“人工智能的未来法”,该法案旨在为人工智能建立广泛的政策和法律原则。它建议商务部长成立一个有关人工智能开发和实施的联邦咨询委员会。该立法为联邦政府提供了一种机制,以就如何促进“投资和创新气候以确保美国的全球竞争力”,“优化人工智能的发展以应对潜在的增长,重组或发展”提出建议。美国劳动力的其他变化”,“支持人工智能的公正发展和应用”和“保护个人的隐私权。”

要求委员会解决的具体问题包括:竞争力、劳动力影响、教育背景,道德培训、数据共享、国际合作、责任制、机器学习偏见、农村影响、政府效率、投资环境、工作影响、偏见、和消费者的影响。委员会应在颁布后540天向国会和政府提交一份有关AI所需的任何立法或行政措施的报告。

这项立法是朝着正确方向迈出的一步,尽管该领域的发展如此之快,我们建议将报告时间表从540天缩短到180天。等待近两年的委员会报告肯定会导致机会错失,并且在重要问题上缺乏行动。鉴于该领域的快速发展,在委员会分析中有更快的周转时间将是非常有益的。

与州和地方官员接触

各州和地区也正在就AI采取行动。例如,纽约市议会一致通过了一项法案,指示市长组建一个工作组,“负责监视市政机构使用的算法的公平性和有效性。”纽约市采用算法来“确定是否需要较低的保释金”。将被分配给贫困的被告,在该处建立消防站,为公立学校布置学生,评估老师的表现,确定医疗补助欺诈,并确定接下来将发生犯罪的地方。”

根据法律的制定者,城市官员想知道这些算法如何工作,并确保有足够的AI透明度和责任感。此外,人们还担心AI算法的公平性和偏见,因此工作组已被指示分析这些问题并就未来的使用提出建议。计划在2019年底之前向市长报告一系列人工智能政策,法律和法规问题。

一些观察者已经担心该工作组在追究算法责任方面做得还不够。例如,康奈尔大学技术学院和纽约大学的朱莉亚·普勒斯(Julia Powles)辩称,该法案最初要求公司向公众提供AI源代码以供检查,并且需要使用实际数据模拟其决策。但是,在对这些规定提出批评之后,前议员詹姆斯·瓦卡(James Vacca)放弃了要求,转而成立了研究这些问题的工作队。他和其他城市官员担心,有关算法的专有信息的发布会减缓创新速度,并使得寻找与城市合作的AI供应商变得困难。这个地方工作队将如何平衡创新,隐私和透明度问题还有待观察。

规范广泛的目标而不是特定的算法

欧洲联盟对这些数据收集和分析问题采取了限制性立场。它的规则限制了公司收集道路状况数据和绘制街道视图的能力。由于这些国家中的许多国家担心未加密的Wi-Fi网络中的个人信息会席卷整个数据收集,因此欧盟对技术公司处以罚款,要求提供数据副本,并对收集的材料进行限制。这使得在那里经营的技术公司更难以开发自动驾驶汽车所需的高清地图。

在欧洲实施的GDPR严重限制了人工智能和机器学习的使用。根据已发布的准则,“法规禁止任何“重大影响”欧盟公民的自动决定。其中包括评估个人“在工作,经济状况,健康状况,个人喜好,兴趣,可靠性,行为,位置或动作方面的表现”的技术。”此外,这些新规定赋予公民查看数字化程度的权利。服务做出了影响人们的特定算法选择。

通过在数据收集和分析问题上采取限制性立场,欧盟使其制造商和软件设计师处于与世界其他国家相比明显的劣势。

如果严格解释,这些规则将使欧洲软件设计人员(以及与欧洲同行合作的美国设计人员)难以将人工智能和高清地图纳入自动驾驶汽车。这些汽车和卡车导航的中心是跟踪位置和运动。如果没有包含地理编码数据的高清地图以及利用这些信息的深度学习,那么全自动驾驶将在欧洲停滞不前。通过这项和其他数据保护措施,欧盟使其制造商和软件设计师对世界其他地区处于严重不利地位。

考虑到人工智能希望实现的广泛目标并制定可推进这些目标的政策,这与政府试图破解“黑匣子”并确切了解特定算法的运行方式的政府相比,更加有意义。规范单个算法将限制创新,并使公司难以利用人工智能。

认真对待AI出现的偏见

偏见和歧视是AI的严重问题。已经有许多与历史数据相关的不公平对待案例,需要采取措施以确保在人工智能中不普遍。有关实体经济中歧视的现行法规需要扩展到数字平台。这将有助于保护消费者并建立对这些系统整体的信心。

为了使这些进步得到广泛采用,人工智能系统的运行方式需要更高的透明度。Immuta的安德鲁·伯特(Andrew Burt)指出:“预测分析面临的关键问题实际上是透明度。我们处在一个数据科学运营正在承担越来越重要的任务的世界中,唯一使它们受阻的是训练模型的数据科学家能够很好地解释其模型在做什么。”

维持人类监督和控制机制

一些人认为,人类需要对AI系统进行监督和控制的途径。例如,艾伦人工智能研究所首席执行官Oren Etzioni认为应该有规则来规范这些系统。他说,首先,AI必须受制于已经针对人类行为而制定的所有法律,包括有关“网络攻击,股票操纵或恐怖主义威胁”的法规,以及“诱使人们实施犯罪”的法规。其次,他认为这些系统应该公开它们是自动化系统,而不是认为操纵。第三,他指出:“未经信息源的明确许可,人工智能系统无法保留或披露机密信息。”他的理由是这些工具存储了太多数据,因此人们必须意识到AI带来的隐私风险。

同样,IEEE(美国电气电子工程师学会)全球倡议组织拥有关于AI和自治系统的道德准则。它的专家建议对这些模型进行编程时要考虑到广泛接受的人类行为规范和规则。AI算法需要考虑这些规范的重要性,如何解决规范冲突以及这些系统对规范解决方案透明的方式。伦理专家称,软件设计应该针对“不欺骗”和“诚实”进行编程。发生故障时,必须有缓解机制来处理后果。尤其是,人工智能必须对偏见,歧视和公平等问题敏感。

一群机器学习专家声称可以自动进行道德决策。他们将电车问题视为道德困境,他们提出以下问题:如果自动驾驶汽车失控,是否应该对其编程以杀死自己的乘客或过马路的行人?他们设计了一个“基于投票的系统”,该系统要求130万人评估替代方案,总结总体选择,并将这些人的总体观点应用于各种交通工具。这使他们能够在考虑到公众偏好的情况下自动执行AI算法中的道德决策。当然,此程序不会减少任何形式的死亡所造成的悲剧,例如在Uber案中所见,但是它提供了一种机制,可以帮助AI开发人员将道德考虑纳入其计划中。

惩罚恶意行为并促进网络安全

与任何新兴技术一样,重要的是要阻止旨在诱骗软件或将其用于不良目的的恶意处理。考虑到AI的双重用途,这一点尤其重要,因为同一方面的工具可以用于有益或恶意目的。恶意使用AI会使个人和组织面临不必要的风险,并破坏了新兴技术的优点。这包括诸如黑客行为,操纵算法,损害隐私和机密性或窃取身份之类的行为。劫持AI以获取机密信息的行为应受到严惩,以制止此类行为。

在一个瞬息万变的世界中,许多实体都具有先进的计算功能,因此需要认真关注网络安全。各国必须谨慎保护自己的系统,并防止其他国家破坏其安全。根据美国国土安全部的资料,一家大型美国银行每周在其服务中心接听大约1100万个电话。为了保护其电话免遭拒绝服务攻击,它使用“基于机器学习的策略引擎,该引擎根据语音防火墙策略(包括骚扰呼叫者,自动化呼叫和潜在的欺诈性呼叫),每月阻止超过120,000个呼叫。”这代表了机器学习可以帮助防御恶意系统的技术系统的一种方式。

五、结论

总而言之,世界正处于通过AI和数据分析革新,使得许多行业处于风口浪尖。在金融、国家安全、医疗保健、刑事司法、交通和智慧城市中已经有大量部署,已经改变了决策,业务模型,风险缓解和系统性能。这些事态发展正在产生可观的经济和社会效益。

世界正处于通过人工智能使许多领域发生革命的时刻,但是由于这些技术将对整个社会产生重大影响,因此需要更好地理解AI系统的开发方式。

然而,人工智能系统的发展方式对整个社会都具有重大意义。重要的是如何解决政策问题,解决道德冲突,解决法律现实以及在AI和数据分析解决方案中需要多少透明度。人们对软件开发的选择会影响决策的方式以及将决策整合到组织例程中的方式。这些过程的确切执行方式需要更好地理解,因为它们将在不久的将来对公众产生重大影响。人工智能很可能是人类事务的一场革命,并且将成为历史上最有影响力的人类创新。

特别鸣谢:

Grace Gilberg,Jack Karsten,Hillaryary Schaub和Kristjan Tomasson在此项目上的研究帮助。

美国布鲁金斯学会是一家致力于独立研究和政策解决方案的非营利组织。它的任务是进行高质量的独立研究,并在此基础上为决策者和公众提供创新,实用性的建议。任何布鲁金斯出版物的结论和建议仅是其作者的结论和建议,并不代表该机构其管理层或其他学者的观点。


0 0

网友评论

取消