AI当前 道德优先
来源 :转载 访问次数 : 发布时间 :2018-06-06
“未来某一天,如果有歹徒持刀、持枪闯入房间,智能机器人是否可以为了保护主人而使用暴力手段?”近期,在北京大学举办的“人工智能及其社会角色”主题论坛上,北大哲学系教授何怀宏抛出这样一个问题,让如何规范人工智能的设计与应用并建立保护人类社会的道德准则,成为现场讨论的焦点。
如今,人工智能(AI)的社会角色不断更新迭代,越来越多地融入人们的日常生活,一个由人类智慧和人工智能共同驱动的未来社会即将到来,但它潜在的失控风险始终牵动着人们的终极神经。
“如果同意民用机器人使用暴力手段,会不会打开一个口子,甚至使其成为一些坏人的帮凶,造成更大的社会威胁。”何怀宏再次发问。
作为国务院《新一代人工智能发展规划》执笔人之一,北京大学计算机系主任黄铁军教授说,自己并不担心AI带来的现实问题,AI是人类与未来对接的唯一手段,其脱胎于人类,与人类存在连续性,如果人类要往前演化,不能永远停留在现阶段。
但在北京大学法学院副教授江溯眼中,这是一个很难回答的问题。出于保护无辜的人的目的,机器人应该被授予使用暴力手段的权限,但这需要一定程度的事前立法。“这种立法,并不是典型意义上的法律规定,它更多的是人类道德准则。要在设计之初,考虑进去。”江溯强调道。
带来新书《未来计算》的微软全球执行副总裁、微软人工智能及微软研究事业部负责人沈向洋表达了同样的观点。“创建安全、可靠的人工智能系统不是某一个人的责任,而是我们共同的责任。要设计出可信赖的人工智能,各方必须采取体现道德原则的解决方案,而且这些道德原则应深深根植于重大和永恒的价值观。”沈向洋说。
针对于此,沈向洋提到微软人工智能开发的六大原则——公平、可靠和安全、隐私和保障、包容、透明、责任。他直言,为了确保六项原则的有效实施,微软还特地设立了开发和研究人工智能与道德标准(AETHER)委员会。发布任何一款产品前,都要审查其安全性和无障碍性,致力于让技术为更多人提供平等和便利。
江溯总结了现场的发言。他表示,首先要建构一套社会原则与道德准则,之后再开发人工智能产品,寻找应用场景中的最佳实践,在多番验证后加以推广。
“责任会落到‘关键的少数’头上。既要发展技术,也要未雨绸缪,平衡科技发展与法律发展之间的矛盾。”何怀宏谈及对决策者的要求。与此同时,他建议,在未来民用机器人的生产上,设立“目标”“能力”“手段”三原则。“目标上做到与人友好;能力上做到小型化、专门化;手段上则要严格区分暴力与非暴力的使用。充分预料它所产生的后果,才能往前走。”何怀宏说。
“我们将有机会,以前所未有的方式塑造我们的未来。在这个历史机遇的面前,我们必须以负责任的态度,确保打造一个所有人都能参与和分享的美好未来,让人工智能为全人类造福。”面对挑战,沈向洋信心满满。