都要承担的社会责任,的人工智能

“9·11 是犹太人干的,把他们都送进毒气室!种族战争现在开始!”

作者:梁东星              班级:1402019              学号:14020199040

人工智能时代,我们已初尝了AI的甜头,一切都是那么激动人心。但Facebook数据泄露事件以及现在层出不穷的人工智能歧视案例都说明,技术并不是一股中性的力量。AI对社会的影响越来越大,在司法、教育、招聘和医疗等重要领域做出正确、合理、公平的决策,是否有适当的防护措施来确保未来可靠的使用显得越发重要。

2016年3月23日,一个人设为19岁女性,昵称为 Tay
的聊天机器人在推特上线。这个微软开发的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay
就被“调教”成了一个满口叫嚣着种族清洗、粗野不堪的极端分子,微软只好以“系统升级”为由将其下架。

【嵌牛导读】:人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让人工智能真正有益于人类社会,我们也不能忽视人工智能背后的伦理问题。现在的人工智能界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来跨学科的人工智能伦理测试需要加强研究。

新浦京www81707con 1

新浦京www81707con 2微软聊天机器人的极端言论。图片来源:推特

【嵌牛鼻子】:人工智能  伦理问题

避免机器引发的战争

这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着。美国大选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容,配上病毒式的meme,在
Facebook
上获取了相当大的传播量。这有赖于人工智能协助下的“精准铆定”。谁最容易相信阴谋论?谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中,让这些机器判定为“类似”的人在极端言论的包围中渐渐被潜移默化。

【嵌牛提问】:人工智能的持续发展进步是否会给社会带来很多伦理问题?我们应该怎样来应对?

事实证明,人工智能的工程责任是一个棘手的问题。微软公司最近就其为美国政府工作的问题进行了处理。

因为设计缺陷而
“暴走”的聊天机器人,和精心策划的线上政治行为,看起来仿佛是两回事。但这种我们似乎从未见过的景象,却指向了同一个“凶器”——大数据驱动下的人工智能。

【嵌牛正文】:

近期,微软公司的一些员工请求公司高管终止另一份向军方提供增强现实技术的合同。微软首席执行官Satya
Nadella拒绝了这一请求。“我们会向美国政府和军队提供我们的技术。”微软公司人工智能与研究小组执行副总裁Harry
Shum在会议的问答环节中强调微软公司的立场时表示。

是智能在 “作恶”吗?

人工智能会“作恶”吗?面对智能的崛起,许多人抱有忧虑和不安:拥有感情和偏见的人会作恶,而仅凭理性计算进行判定的计算机似乎也会“作恶”,且作起来易如反掌。这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。

这种忧虑并不是最近才有的。人工智能这个词诞生于上世纪50年代,指可体现出思维行动的计算机硬件或者软件,而对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现。14
年前,威尔·史密斯主演的电影《机械公敌》(I,
Robot)里就有这样一个场景:2035
年的人类社会,超高级的人工智能承担大量工作,并与人类和谐相处。这些原本完全符合阿西莫夫“三定律”的人工智能,在一次关键升级之后对人类发起了进攻。这些机器人拥有了思维进化的能力,在它们的推算下,要达到“不伤害人类”的目的,就必须先消灭“彼此伤害”的人类。

看起来,人工智能并不像人类一样拥有所谓“人性”,并不与我们共享一个道德伦理体系。然而将智能的“作恶”简单理解为“人性缺乏”,未免把这个问题看得太过简单。

南京大学计算机科学与技术系副教授、人工智能专家俞扬认为,“人性”对于人工智能来说是一个非常“高层次”的东西。“描述一张图片上,有草原,有狮子,机器可以做到,”俞扬举了个例子,“而要归纳它是‘非洲’,就要更高级一些,对机器来说更困难。”他说,判断一件事情在道德上好不好,意义上怎么样,目前来讲并不是机器的能力范围。

而正视人工智能的“恶”,或许应该首先找出作恶之源——为什么人工智能忽然变得可怕起来?

近 10 年,人工智能领域迎来了爆发,这要得益于
“机器学习”的发展:拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析,并学习各种行为模式。输入和输出不再是人工赋予的几个变量掌控,而是让机器在大量数据中自己分析特征,决定变量权重。

而最新趋势下进行“深度学习”的人工智能,则可以通过模拟多层级的神经网络,拥有感知、交流、决策和预测等能力。击败人类的围棋“Alpha
Go”便是一例。当下最热门的自动驾驶,也堪称人工智能以独立姿态走入人类社会的“先驱”。更基本的是,人类生活的大规模网络化、数字化,为机器的“学习”提供了足够多的数据“食粮”。

今天的人工智能与其说是拥有“思维”,不如说是对于人类世界中现存数据的反映和理解。与其说“没有人性”,会不会是“太有人性”?机器是否也继承了我们既有的偏见、无常和贪婪? 

**人工智能时代加速到来,算法决策兴起
**

都要承担的社会责任,的人工智能。美国五角大楼采用人工智能产品

人工智能的“偏见”:过往数据的问题

人工智能在判断上失误的一个指责,是它经常会
“歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维尼(Latanya
Sweeny)发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具
Adsense 给出的结果。

而这种危险并不仅仅是
“另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。

对每个毕业季都会收到数以万计简历的大公司人力部门而言,用机器筛简历并不是什么新鲜的事情,百分之七十以上的简历甚至都到不了
HR 的眼皮底下。筛简历的
AI(业界用语“雇佣前评估”)因此而获得了大约30亿美元左右的市场。有些关键词,例如性别、地域,或者出身阶层,至少在明面上,是不宜成为筛选标准的——这个时候,HR
就会以“并不适合”为由,推掉不喜欢的性别、籍贯乃至星座。那么,彻底排除 HR
或者项目经理个人偏见的人工智能会解决这个问题吗?答案可能会更糟。

最新的人工智能雇佣辅助技术,并不需要人为设置关键词,而全靠“过往的优秀员工数据”对机器的训练,决策权重也并不是加或者减去一个过滤的变量就能解决的,看起来似乎十分公平。然而人工智能的检视,却让少数族裔、女性、或者有心理疾病史的人更难找到工作。美国
IT 作家、数学家凯西·奥尼尔(Cathy
O’Neil)曾经调查到,人力资源解决方案公司 Kronos
提供的智能筛选服务会用“个性测试”把有心理疾病史的申请者挡在门外;而施乐(Xerox)在招聘的时候发现,人工智能大量过滤掉了有色人种的申请,因为这些申请者提供的地址位于市内某黑人聚居区。

金融领域也不例外。位于美国洛杉矶的科技金融公司 Zest
开发了一个人工智能信用评估平台
ZAML,使用用户网络行为,而不是实际的信用记录,来判定用户的信用值。百度作为搜索引擎合作商,向他们提供了大量可以用于分析用户信用倾向的数据,比如搜索历史、页面访问记录、访问习惯等等,用于归纳出用户可能的财务状况。它声称有近十万个数据点,没有所谓“决定因素”,因为美国法律禁止金融机构以性别、种族或宗教等决定一个人的信用。然而在现实应用中,对于不同人群的“另眼相看”却体现得非常明显——比如,它会“研读用户的申请”,检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向;然而这导致并不能熟练使用英语的移民群体在信用问题上被抹黑。

歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了
bug?机器所计算出的结果,能为歧视、不公、残酷提供理由吗?这些都是值得商榷的问题。

我们训练机器的“过往数据”,实际上是人类自身偏见和行为的产物。《MIT
商业评论》的分析者认为,类似于 ZAML
的智能采用的“贴标签”策略,很难排除相关性(而非因果性)带来的偏见。少数族裔常常会因某种特定行为被打上标签(比如访问某个网络社区等),即使他/她有良好的信誉和稳定的工作,只要出现这样的行为,就可能会被人工智能判定为低信用,需要为他/她的借贷支付更高的利息,或者干脆没有资格。

机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷。一个公司过去10年男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上,这跟人类的刻板印象如出一辙。问题在于,机器的抉择往往被包装上“科学”“客观”的外衣,此类解决方案往往能够因为其科技噱头而卖出高价,殊不知只是用“科学结果”对现有的偏见进行的“大数据洗白”。

第三次AI(人工智能,以下简称AI)浪潮已经开启。在技术层面,有算法的进步。当1956年人工智能开始起步的时候,人们更多是在说人工智能;在第二次浪潮期间,机器学习成为主流;这一次则是深度学习,是能够自我学习、自我编程的学习算法,可以用来解决更复杂的任务。此外,计算能力的提升,包括现在的量子计算机,以及越来越普遍的大数据,对人工智能的作用和价值也非常大,使得更复杂的算法成为可能。在应用层面,从语音识别、机器翻译到医疗诊断、自动驾驶,AI应用在不断加深、不断成熟,甚至已经开始超越人类,引发人们关于失业的担忧。同时也让人们开始期待具有通用智能的终极算法。在商业层面,面对可预期的好处和利益,国内外主流的互联网公司如腾讯、谷歌等都开始向AI看齐,AI领域的创业和投资在如火如荼地进行着。全球已经有超过1000家AI公司,市场规模增长空间是非常大的,未来八年内将超过350亿美元。

去年有消息称,谷歌公司正在向美国五角大楼提供其人工智能技术,用于分析无人飞机的录像资料,谷歌公司由于员工的压力做出了回应,表示不再续签军事合同。

人工智能的“黑箱”:无法理解的智能带来的危险

放眼望去,技术乐观派对于“机器/深度学习”的热情十分高涨,亚马逊就是其中之一:除了能够跟人“尬聊”的智能助手
Alexa,机器学习和深度学习的算法也被其用于“提高用户的购物体验”(比如最新投入应用的
Amazon
Go)。与此同时,当这些人们摸不准的变量能够轻易决定一个人基础福利、工作晋升、人身保险的时候,相应的监管和约束却对此毫无办法——人工智能造成的歧视和不公,很大程度上是对监管、异议、上诉等“免疫”的,因为它非常不透明。

这是人工智能在现在面临的重要挑战之一。“我们不了解一个人工智能的模型是如何做出决策的,很多时候情况和我们预想的不一样。”在谈到智能的“不透明”时,俞扬如是说。

目前最火的领域“深度学习”就是这样——行业者有时会将其戏谑地称为“当代炼金术”:输入各类数据训练
AI,“炼”出一堆我们也不知道为啥会成这样的玩意儿。处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成,然后用数层逻辑结构组织起来,运算过程及其复杂。智能程序自己给自己设定算法和权重,而最后为什么输出了某个决策,人类并不能完全理解。这看起来就仿佛一种本能一样——蒙特利尔大学的计算机科学家约书亚·本奇奥(Yoshua
Bengio)将其称为“人工直觉”(artificial intuition)。

新浦京www81707con ,我们会信任一个我们“无法理解”的决策对象吗?当它出错的时候,我们能够察觉、能够纠正吗?

 “我们必须清楚地知道人工智能会做出什么样的决策。对人工智能的应用范围,以及应用结果的预期,一定要有约束。”俞扬认为,“黑箱”的现实应用,一定要慎之又慎。环境是否可控,是否经过了可理解性的测试,决定了它是否可以用在关键的场所,否则就是产品的重大缺陷。

俞扬所在的实验室做的研究之一,便是把模型放在开放环境中,让其学会“感知”未知的状况,并自动阻止机器做决策。“机器需要给自己‘划线’。”俞扬说。

但在实际操作中,要让人工智能的制造者给自己的智能“划线”,则要面临更重大的问题——资本。

在此背景下,各种互联网服务中越来越多地看到人工智能的影子,人们日益生活在算法之下,算法决策开始介入甚至主导越来越多的人类社会事务。比如,人们在互联网上获取的内容,诸如新闻、音乐、视频、广告等等,以及购买的商品,很多都是推荐引擎个性化推荐给用户的,而不是有人在背后决策。再比如,在金融领域,算法可以决定是否给某个用户发放贷款,以及具体的贷款额度。此外,一家美国投资公司早在几年前就开始研发管理公司的AI系统,招聘、投资、重大决策等公司事务都由这个AI系统来管理并决策。也许在未来,一家公司的成功不再主要依赖于拥有像乔布斯那样伟大的CEO,而是一个足够智能足够强大的AI系统。更有甚者,英国、欧盟等都在大力推动人工智能技术在政务和民生方面的更深应用,政府服务不仅是数字化,而且是智能化。

去年12月,谷歌公司发布了一个正式审查结构的细节,以围绕其认为“适当”使用人工智能方式做出决策。其项目负责人表示,
“我们认为建立严格的内部审查很重要。”他引用了推出唇读技术但没有发布面部识别工具的决定,以此来说明该公司在人工智能辩论中的立场。他说,“这是我们每天进行各种讨论的一个例子。”

人工智能的“无情”:资本驱动的信息世界

如同开篇提到的那样,2016 年美国大选期间,一家叫剑桥分析(Cambridge
Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费政治广告;而投什么样的广告,取决于一个人的政治倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速传播、增加曝光,并潜移默化地影响人们的价值判断。技术主使克里斯托弗·威利(Christopher
Wylie)最近向媒体揭发了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的
5000 多万用户数据。

新浦京www81707con 3

剑桥分析CEO亚历山大·尼克斯(Alexander Nix)。图片来源:wikipedia

剑桥分析并不是一个孤例。澳洲一个 Facebook 的广告客户透露,Facebook
的人工智能会分析其用户特征和所发的内容,给出诸如“有不安全感的年轻人”“抑郁、压力大”等标签,然后有针对性地投放游戏、瘾品和甚至虚假交友网站的广告,从中获取巨大利益。

即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。例如,电商能够根据一个人的消费习惯和消费能力的计算,对某个人进行针对的、精密的价格歧视。购买同样的商品,用
iPhone X
手机的用户很可能会比用安卓“千元机”的用户付更多的价钱,因为他们“倾向于对价格不敏感”。而我们所经常谈论的“大数据杀熟”——比如携程老用户订旅馆的价格会更高——也建立在用户行为数据的基础上。

数据的收集本身也值得商榷。前百度人工智能首席科学家吴恩达(Andrew
Ng)就曾公开表示,大公司的产品常常不是为了收入而做,而是为了用户的数据而做;在某一个产品上收集的数据,会用于在另一个产品上获利。在智能面前,没有所谓的个人隐私和行踪,也很难确定数据收集的边界在哪里,尤其是个人隐私与公共信息、主动提供与被动提供的边界。

总而言之,在以商业利益为目标的人工智能眼里,并没有“人”或者“用户”的概念,一切都是可以利用的数据。剑桥大学互联网与社会研究中心教授朔沙娜·祖博夫(Shoshana
Zuboff)将这种人工智能和资本“合体”的现状,称之为“监控资本主义”(Surveillance
Capitalism)——在大数据和人工智能的协助下,通过对每个人的监控和信息的榨取,实现资本的最大化。

业界对此的态度很暧昧。AI
作为当下最热门、来钱最快的行当之一,这些动辄年薪50万美元的工程师很少得闲来思考“形而上”的问题。
一位不愿具名的研究人员在与我的微信私聊中表达了他的“个人看法”:“现在的技术离‘通用人工智能’还很远,对社会伦理方面的影响没有那么大,更多还是从繁琐的重复劳动中解脱出来。”

作者试图找到行业内人士对此评论,谷歌(中国)和百度自动驾驶部门的人工智能相关人员均表示,探讨
AI 的社会问题,牵涉到公司利益和形象,比较敏感,不便评论。

“人工智能作为一个工具,如何使用,目前来看决定权依然在人。”俞扬说道
,“系统的设计者和商业(应用)的提供人员需要对此负责。”

如何负责?这或许需要我们正视人工智能对整个社会关系的挑战。

人工智能伦理问题日益凸显

新浦京www81707con 4

有解决方案吗?我们的社会与智能需要新关系

2018年3月 19
日,一辆自动驾驶的优步(Uber)在美国亚利桑那州惹上了麻烦。面对路中出现的一个推着自行车的女性,这辆车速
38
mph(约61km/h)的沃尔沃在昏暗的光线条件下并没有减速,径直撞了上去,受害者被送往医院之后不治身亡。这是自动驾驶第一例行人致死的事故。

新浦京www81707con 5

电视台对自动驾驶优步车祸的报道。图片来源:abc电视台

事故发生之后,有不少人将矛头指向了自动驾驶的人工智能是否足够安全上,或者呼吁优步禁止自动驾驶。然而更关键的问题在于,亚利桑那有着全美国几乎最开放的自动驾驶政策,事故发生地坦佩市(Tempe)是实行自动驾驶最火的“试验田”之一;事故所在的街区早已做过路线测试,并被自动驾驶的智能采纳。但是在事故发生之后,对于责任的认定依然遇到了困难。

因为人的疏忽造成的车祸数不胜数,人们早已习惯了如何处理、怎样追责;然而机器出错了之后,人们忽然手足无措。人工智能会出错吗?当然会。只是我们在这个问题上一直缺乏认知。就如同上文提到的“隐性歧视”,深度学习的“黑箱”,现有的法律法规很难对这些错误进行追究,因为不要说普通人,就连技术人员也很难找出出错的源头。

当人工智能的决策在人类社会中越来越重要时,我们也不得不考虑,智能为什么会犯错,犯错了怎么办;若要让智能摆脱被商业或者政治目的支使的工具,真正成为人类的“伙伴”,需要怎么监管、如何教育,才能让智能“不作恶”。
 
对此,现有的法律框架内很难有清晰的、可操作的实施方案。欧盟率先在数据和算法安全领域做出了立法的尝试,2018年5月即将生效的新法规规定,商业公司有责任公开“影响个人的重大决策”是否由机器自动做出,且做出的决策必须要“可以解释”(explainable)。但法条并没有规定怎么解释,以及细到什么程度的解释是可以接受的。

另外一个重要的问题是,让机器求真求善,需要人类自己直面决策中的黑暗角落。在
Atari 游戏智能的测试中,游戏中的人工智能 bot
可以用最快的速度找到漏洞开始作弊,而游戏玩家又何尝不是呢?不管是带有歧视的语义分析,针对少数族裔进行的“智能监视”和跟踪,或者把已婚未育女性的简历扔掉的智能简历筛选,都长期以各种形式存在于人类社会中。

人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。至少目前,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。对机器的训练同样少不了对人性和社会本身的审视——谁在使用,为了什么而使用,在我们的世界中扮演着怎样的角色?数据是谁给的,训练的目标是谁定的?我们期望中的机器,会继承我们自己的善恶吗?

谷歌中国人工智慧和机器学习首席科学家李飞飞认为,要让机器“不作恶”,人工智能的开发需要有人本关怀。“AI
需要反映我们人类智能中更深层的部分,”李飞飞在《纽约时报》的专栏中写道,“要让机器能全面地感知人类思维……知道人类需要什么。”她认为,这已经超越了单纯计算机科学的领域,而需要心理学、认知科学乃至社会学的参与。

未来,人工智能进入更多的领域、发挥更强的功能,是无可争辩的事实。然而,我们的生产关系能否适应人工智能带来的生产力,这句马克思政治经济学的基本原则值得我们认真思考一番。我们并不想看到未来的“机器暴政”,将我们的社会绑在既有的偏见、秩序和资本操纵中。(编辑:Ent、拇姬)

题图来源:saleshacker.com

人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让AI真正有益于人类社会,我们也不能忽视AI背后的伦理问题。

算法将成为你的新同事

第一个是算法歧视。可能人们会说,算法是一种数学表达,是很客观的,不像人类那样有各种偏见、情绪,容易受外部因素影响,怎么会产生歧视呢?之前的一些研究表明,法官在饿着肚子的时候,倾向于对犯罪人比较严厉,判刑也比较重,所以人们常说,正义取决于法官有没有吃早餐。算法也正在带来类似的歧视问题。比如,一些图像识别软件之前还将黑人错误地标记为“黑猩猩”或者“猿猴”。此外,2016年3月,微软公司在美国的Twitter上上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。而且,算法歧视会带来危害。一方面,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必然危害个人权益。另一方面,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上是比较困难的。

虽然人们对机器人取代人类表示担忧,但AI在未来职场上的角色并不是只有这一个可能性。的确,大量工作将被淘汰,但新的工作也将出现。随着AI和人类学会互相配合而不是互相竞争,工作方式将被优化。

为什么算法并不客观,可能暗藏歧视?算法决策在很多时候其实就是一种预测,用过去的数据预测未来的趋势。算法模型和数据输入决定着预测的结果。因此,这两个要素也就成为算法歧视的主要来源。一方面,算法在本质上是“以数学方式或者计算机代码表达的意见”,包括其设计、目的、成功标准、数据使用等等都是设计者、开发者的主观选择,设计者和开发者可能将自己所怀抱的偏见嵌入算法系统。另一方面,数据的有效性、准确性,也会影响整个算法决策和预测的准确性。比如,数据是社会现实的反映,训练数据本身可能是歧视性的,用这样的数据训练出来的AI系统自然也会带上歧视的影子;再比如,数据可能是不正确、不完整或者过时的,带来所谓的“垃圾进,垃圾出”的现象;更进一步,如果一个AI系统依赖多数学习,自然不能兼容少数族裔的利益。此外,算法歧视可能是具有自我学习和适应能力的算法在交互过程中习得的,AI系统在与现实世界交互过程中,可能没法区别什么是歧视,什么不是歧视。

制定AI工作原则,加强其社会责任是机器和人类在职场得以共存的关键所在。我们应该提供特定的工作培训和辅导项目以帮助人类适应新的工作方式。此外,在引导AI完成人机协作项目的同时也要考虑AI作为项目“另一类用户”的需求所在,这就需要机器学会问正确的问题并降低模糊性。这一过程中确保算法透明性尤为重要。AI和人类一样也会形成偏见,因此有必要确保参与工作的人、数据与机器的多样化以避免偏见

更进一步,算法倾向于将歧视固化或者放大,使歧视自我长存于整个算法里面。算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误的输入形成的错误输出作为反馈,进一步加深了错误。最终,算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。包括预测性警务、犯罪风险评估、信用评估等都存在类似问题。归根到底,算法决策其实缺乏对未来的想象力,而人类社会的进步需要这样的想象力。

人机协作教学中人工智能扮演的角色

第二个是隐私忧虑。很多AI系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法。数据已经成了AI时代的“新石油”。这带来新的隐私忧虑。一方面,如果在深度学习过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。所以国外的AI研究人员已经在提倡如何在深度学习过程中保护个人隐私。另一方面,考虑到各种服务之间大量交易数据,数据流动不断频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、差别化隐私、决策矩阵等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。

人工智能可以将教师从烦琐、机械、重复的脑力工作中解脱出来,成为教师有价值的工具和伙伴:一方面,人工智能可以替代教师完成批改作业等日常工作,把教师从重复性、机械性的事务中解放出来;另一方面,人工智能会为未来教师赋能,成为教师工作的组成部分,由人机协作完成以前无法完成的智慧性工作。未来的教育则更像是构建生态圈,其中分布着各种各样的生物群落,动植物间各得其所、相互支撑。

第三个是责任与安全。霍金、施密特等之前都警惕强人工智能或者超人工智能可能威胁人类生存。但在具体层面,AI安全包括行为安全和人类控制。从阿西莫夫提出的机器人三定律到2017年阿西洛马会议提出的23条人工智能原则,AI安全始终是人们关注的一个重点,美国、英国、欧盟等都在着力推进对自动驾驶汽车、智能机器人的安全监管。此外,安全往往与责任相伴。如果自动驾驶汽车、智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟

新浦京www81707con 6

第四个是机器人权利,即如何界定AI的人道主义待遇。随着自主智能机器人越来越强大,那么它们在人类社会到底应该扮演什么样的角色呢?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?我们可以虐待、折磨或者杀死机器人吗?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。这个问题未来值得更多探讨。此外,越来越多的教育类、护理类、服务类的机器人在看护孩子、老人和病人,这些交互会对人的行为产生什么样的影响,需要得到进一步研究。

而要构建生态圈,则要求教师关注每个个体之间相互竞争、相互依赖的关系,关注生态圈里每个个体的需求,发现、发掘和培养学生的个性。要达到这些目标,如果没有人工智能为代表的外部智力支撑,单靠教师是很难实现的。教学任务是由教师与人工智能共同协作承担的。二者各司其职、优势互补。“AI
Teacher”的国际合作研究项目——人工智能教师。在该项目中,建立了教育大数据平台,采集学生全学习过程数据,对学生的知识、情感、认知、社会网络等进行全面仿真,并通过数据精确了解学生发展的一般规律及个体特征,以实现“人工智能教师”服务。

构建算法治理的内外部约束机制

人工智能在建筑业汽车等领域的赋能

一是合伦理的AI设计,即要将人类社会的法律、道德等规范和价值嵌入AI系统。这主要是电气和电子工程师协会、英国等在提倡。可以分三步来实现。第一步是发现需要嵌入AI系统的规范和价值,存在道德过载和价值位阶的问题,即哪些价值优先,哪些价值在后。第二步是将所发现的规范和价值加入AI系统,需要方法论,有自上而下和自下而上两种路径。第三步是对已经嵌入AI系统的规范和价值进行评估,看其是否和人类社会的相一致。一方面是使用者评估,需要建立对AI的信任,比如当AI系统的行为超出预期时,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。

在自动驾驶领域,Alphabet公司Waymo首席技术官兼工程副总裁报告称,该公司自动驾驶汽车的部署进展迅速。Waymo汽车已经在包括凤凰城在内的25个城市的公路上行驶了1000万英里,并提供了小规模的自动乘车服务。

但是需要解决两个困境。其一是伦理困境。比如,在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的问题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类社会都是没有解决的,在自动化的场景下也会遇到这样的问题

新浦京www81707con 7

其二是价值对接的问题。现在的很多机器人都是单一目的的,扫地机器人就会一心一意地扫地,服务机器人就会一心一意给你去拿咖啡,诸如此类。但机器人的行为真的是我们人类想要的吗?这就产生了价值对接问题。就像Midas国王想要点石成金的技术,结果当他拥有这个法宝的时候,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么呢?因为这个法宝并没有理解Midas国王的真正意图,那么机器人会不会给我们人类带来类似的情况呢?这个问题值得深思。所以有人提出来兼容人类的AI,包括三项原则,一是利他主义,即机器人的唯一目标是最大化人类价值的实现;二是不确定性,即机器人一开始不确定人类价值是什么;三是考虑人类,即人类行为提供了关于人类价值的信息,从而帮助机器人确定什么是人类所希望的价值。

Autodesk公司首席执行官Andrew
Angnost描述了其公司如何从RFID标签、无人机的现场监控信息和检查清单中收集数据,以改进使用人工智能的建筑设计和施工。尽管人们担心使用人工智能会占据会议的大部分内容,但研究人员似乎对该领域的潜力持乐观态度。谷歌表示,“对于负责任的创新与负责任的人工智能这一概念可能存在紧张关系,然而人工智能有可能解决我们面临的一些最大挑战。”(部分内容来源于网络,如有侵权请联系删除)

二是在AI研发中贯彻伦理原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护,等等。另一方面,需要建立AI伦理审查制度,伦理审查应当是跨学科的,多样性的,对AI技术和产品的伦理影响进行评估并提出建议。

三是对算法进行必要的监管,避免算法作恶。现在的算法确实是越来越复杂,包括决策的影响都是越来越重大,未来可能需要对算法进行监管。可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准等等;透明性方面,包括算法自身的代码透明性,以及算法决策透明性,国外现在已经有OpenAI等一些人工智能开源运动。此外,还有审批制度,比如对于自动驾驶汽车、智能机器人等采用的算法,未来可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。

四是针对算法决策和歧视,以及造成的人身财产损害,需要提供法律救济。对于算法决策,一方面需要确保透明性,如果用自动化的手段进行决策决定,则需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器人等带来的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是可以考虑的救济措施。

在今天这个人工智能快速发展,人类在诸如围棋、图像识别、语音识别等等领域开始落后于人工智能的时代,对人工智能进行伦理测试同样重要,包括道德代码、隐私、正义、有益性、安全、责任等等,都是十分重要的。现在的AI界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来这样跨学科的AI伦理测试需要加强研究。因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更复杂的工具”,但不可否认,我们需要确保这样的复杂工具进入人类社会以后和人类的价值规范及需求相一致。

相关文章