我的位置: 天下 > 话媒堂 > 文章详情
我们将变透明人,在没有隐私的社会“裸奔”?国内第一个人工智能安全发展倡议在沪发布
分享至:
 (5)
 (3)
 收藏
来源:上观新闻 作者:刘璐 冯万艺 2018-09-19 14:00
摘要:隐藏在人工智能技术创新下的安全威胁,可能比传统的安全风险更难应对。这对人工智能的技术设计、应用范式、隐私保护、安全监管等环节提出了更高的要求。

真正的安全

不是把自己变成“反黑大神”

 

人工智能在给我们带来便利的同时,也加大了对隐私数据挖掘和利用的力度。今天,人们获取定制化的服务,有时不得不让出一些个人数据,这就带来一系列新的问题:未来我们会不会在一个没有隐私的社会里“裸奔”?人工智能时代,我们还有隐私可以拿来保护吗?

 

作为2018世界人工智能大会·人工智能安全高端对话的环节之一,“人工智能安全伦理规范”主题的圆桌讨论,由中国信息通信研究院安全研究所副所长覃庆玲女士主持。在她抛出问题后,三位圆桌嘉宾畅所欲言,纷纷从各自的专业领域出发,亮出观点。

 

华东政法大学人工智能与大数据指数研究院院长高奇琦,提出了“透明人”的概念。他认为未来的人基本都会成为“透明人”,所有的信息其实都写在脸上,只不过你可能没有意识到而已。事实上我们每个人的朋友圈信息,稍微分析一下都可以研究出来很多东西,所以个人信息透明化这个趋势,几乎是无法阻挡的。在讨论人工智能与隐私保护之间的关系之前,他认为应该先要考虑清楚如何定义隐私。他结合此前某酒店数亿条用户信息疑泄露事件,强调中国人实际上十分在意隐私。而如何平衡两者?这恰恰需要在立法、政策等方面有一个整体的考虑,需要学术界和产业界共同思考、共同合作。

 

UCloud联合创始人兼CEO季昕华则认为,整体而言,人工智能的发展毫无疑问需要大量数据,没有数据,就没办法产生好的、强的AI。但是,每个用户都有隐私,这其中有没有比较好的办法,能够让人工智能既可以去分析数据、但又不获取原始数据?这需要通过很多技术手段去实施。他提出,问题的核心在于数据的所有权。也就是说,互联网公司把我们的数据拿走做共享、做分析,当中的限制和保护,需要由法律手段来实现。

 

“隐私问题并不是人工智能时代独有的,过去也有。”碁震KEEN公司创始人兼CEO王琦表示,“我们做传统安全的都知道,这世上只有两种人,一种是被黑过的人,还有一种是被黑了自己却不知道的人。”这个形象的说法引来现场听众的会心笑声。他坦言,直到现在,他自己对任何一个包含摄像头、麦克风等的智能机器,内心还是抵制的:“手机是摆脱不了。”

 

如何解决这种担忧?他的想法是依靠法律。法律可以解决两个问题:第一,要让厂商越来越重视安全。“我们未来的隐私保护,不应该指望用户变成反黑大神,真正的安全是不用我们来担心,因为厂商已经帮我们解决了。”省去大众对于个人隐私的多重忧虑和担心。第二,是提高违法成本,在一定程度上降低违法几率。这也是法律层面值得重视的问题。

 

他还提到了技术层面的帮助。人工智能之所以和隐私关系如此密切,是因为它与大数据关联。他以GeekPwn大赛为例指出:“大数据可以脱敏,在我们人类看来可能已经通过脱敏了。但是从AI的角度审视人类数据是否已经脱敏?人工智能可不可以通过这些数据推算出我们的资料、我们的行为?这或许能帮助我们更好地保护隐私。”

 

对王琦的这一说法,高奇琦当即表示认同:“从技术上讲,区块链可能会成为未来的一个方向。”

 

人工智能

该不该有“隐私”?

 

从如今的“弱人工智能”进入未来的“强人工智能”时代,假如有一天人工智能系统具备了自我意识,我们该如何处理人和机器之间的关系?机器可以有“人权”吗?

 

面对主持人的问题,三位嘉宾的观点再次碰撞交锋。

 

高奇琦称自己目前“不能接受”。现有一些技术的发展不可避免地会代替人,但是他认为人一定要有底线。他分享了自己的一个思考——“黄金比例法则”。“将来人类决策的部分必须要超过这个黄金的比例,如果没有底线的话,超过这个比例的决策都是机器帮我们做的,那么人类这个物种真的可能慢慢被替代。”在谈到机器和人的责任主体如何界定时,他认为可以效仿法律层面的处理方法。“比如说公司是法人,但是公司没有公民权,可以给法律一个虚拟的人格,但不一定给完整的权利。”

 

季昕华则直截了当地表示,机器人不必有人权,因为“它是我们人类制造出来的工具”,没有感情也没有爱。

 

有意思的是,从程序员角度出发的王琦给出了“不确定”的答案。但他特别提到了人权中的隐私权,确定人工智能不应有隐私。“我支持人工智开源,它的算法应该是透明的、可以被审核的,这样才能保护伦理健康发展。从这个角度来讲,我认为机器是没有隐私的。”

 

面对嘉宾各不相同的观点,覃庆玲表示这非常正常。人工智能的发展必定充满了不确定性,也因此值得我们深远畅想、深入思考。未来的智能社会是什么样的,人工智能的发展会改变什么?可能需要很长的时间来告诉我们答案。

 

解放日报·上观新闻记者了解到,除“人工智能安全伦理规范”这一主题外,9月18日在上海国际会议中心召开的这场世界人工智能大会分论坛,还包括了“人工智能重塑国家安全”和“人工智能赋能网络安全”两大主题。中国互联网发展基金会理事长马利、上海市经济和信息化委员会巡视员陈跃华、中国信息通信研究院副院长王志勤以及腾讯信息安全执行委员会主任、腾讯公司安全管理部副总经理杨鹏出席并致辞。

国内首个

人工智能安全发展的国际倡议

 

作为全世界共同面临的重要议题,高端对话专家组还在现场发起了《人工智能安全发展上海倡议》。

 

据上海社会科学院互联网研究中心执行主任惠志斌介绍,《人工智能安全发展上海倡议》是国内首个有关人工智能安全发展的国际倡议,包括了“面向未来、以人为本、责任明晰、隐私保护、算法公正、透明监管、和平利用、开放合作”八大理念。

 

从1956年在美国达特茅斯大学举办人类历史上第一次人工智能研讨会开始,人工智能几经波折已走过了六十多年的发展历程。大数据、学习算法和计算能力等技术的飞速发展,让人工智能匹敌人类逐渐成为现实。面向未来,随着人工智能越来越多地介入人类生产生活,有关这项技术的“电子人格”、网络安全防护、算法偏见、自动化武器研发等成为社会热议的话题。与此同时,隐藏在人工智能技术创新下的安全威胁,可能比传统的安全风险更难应对。这对人工智能的技术设计、应用范式、隐私保护、安全监管等环节提出了更高的要求。

 

当前,人工智能治理机制仍滞后于其技术发展的步伐。但一些国家、地区和国际组织、私营企业、社会团体等已积极参与到人工智能安全治理的进程中。2016 年,英国出台历史上首个机器人伦理标准——《机器人和机器系统的伦理设计和应用指南》,规范如何对机器人进行道德风险评估;2017 年,由生命未来研究所牵头制定的“阿西洛马人工智能原则”从研究问题、伦理价值和长期问题三个方面,提出AI安全发展的重点和注意事项;谷歌公司表曾提出“人工智能安全五原则”,即避免负面效应、避免奖励黑客、可扩展的监督、安全探索、向分布式转变;苹果公司也发布了有关Face ID人脸识别的安全白皮书。此外,联合国教科文组织和世界科学知识与技术伦理委员会近年来连续多次联合发布报告,针对人工智能及机器人技术的发展带来的各种问题,提出了全新的思考方式与解决路径。

 

中国是世界人工智能安全治理的重要参与者,2017年发布的《新一代人工智能发展规划》把人工智能安全发展提升到与人工智能科技研发、成果应用、市场推广同等重要的位置。上海作为全球人工智能产业集聚地,将引领新一轮的人工智能创新浪潮。《人工智能安全发展上海倡议》的发布,旨在更好地促进人类生产和生活,积极应对人工智能的安全挑战,守护智能时代的人类未来,为人工智能全球治理贡献中国智慧。该倡议呼吁,人工智能发展需要各国、各方的协同共进,积极在国际范围建立人工智能安全发展的规范和标准,避免技术和政策不兼容导致的安全风险。

 

题图来源:视觉中国 图片编辑:徐佳敏
上一篇: 没有了
下一篇: 没有了
  相关文章
评论(3)
我也说两句
×
发表
最新评论
快来抢沙发吧~ 加载更多… 已显示全部内容
上海辟谣平台
上海2021年第46届世界技能大赛
上海市政府服务企业官方平台
上海对口援疆20年
举报中心
网上有害信息举报专区
关注我们
客户端下载