AI数据安全问题频发 技术、法律如何解决

分享到:

6月3日,瑞莱智慧科技有限公司(下称“瑞莱智慧”)CEO田天在2021北京智源大会上对记者表示,“人工智能导致的数据安全风险正成为一个不容忽视的现象,当我们采用人工智能时,必须考虑到这项技术的安全性、可靠性、合规治理,而第三代人工智能正在致力于解决该问题”。

普华永道预测,到2030年全球人工智能市场规模预计将达到了15.7万亿美元,约合人民币104万亿人民币。人工智能具有很多突出的技术优势,但它在很大程度上依赖数据,当数据未能被妥善治理,那么人工智能的发展也就受到阻碍。

在大会的分会场“AI安全与产业治理”论坛上,中国信息通信研究院安全所信息安全研究部主任魏薇表示,人工智能正导致一系列数据安全风险,包括数据的过度采集、数据偏见歧视、数据智能窃取、数据资源滥用等,这些都对国家和社会安全带来一定挑战。

第三代人工智能

中国科学院院士张钹曾对当前人工智能的技术阶段进行划分,目前人工智能技术已经走入第三代,过去的第一代人工智能,是以知识驱动的,很难大规模应用,第二代人工智能以数据驱动,包括深度学习、深度神经网络技术,可以形成语音识别、人脸识别等应用,但是技术本身的可靠性有待加强。那么第三代人工智能将致力于解决安全、可靠性等问题。

张钹是清华大学人工智能研究院院长,该研究院曾在2018年孵化了瑞莱智慧公司。该公司的CEO田天在会议上表示,当前第三代人工智能的几个重要任务是,首先,要解决技术的安全问题,作为一类全新的系统和软件,人工智能的算法会存在新的漏洞,而黑客或者黑产会利用系统漏洞来进行恶意攻击。

其次,要解决可解释性的问题,目前第二代人工智能深度神经网络是一个”黑盒“,即便是设计者也并不理解它是如何做决策的,对于落地的场景,也无法给一个合理的解释,这和现在很多应用场景是相悖的。

然后,解决可扩展性的问题。目前能做的人工智能场景有限,人类如何基于已获得的知识或模型,让技术在新的场景上发挥作用。

田天表示,这三大任务几乎针对人工智能的所有应用,其中最典型的一个场景是人脸识别。目前人脸识别可以做到99%的精度,但是一旦受到恶意攻击,出错几率几乎是100%,可以说人脸识别的安全性是明显不足的。

另一个危险是,目前有商家制作虚拟视频,恶意传播,对人脸识别技术滥用,这在经济和社会舆论上产生很大的负面影响。那么如何检测人脸是否被滥用,也在第三代人工智能要解决的问题范畴内。

技术、法律的解决方案

业界安全意识的发展,经历了一个过程。田天表示,人工智能学术领域从2014、2015年就开始关注该方向,瑞莱智慧也在当时正式提出相关的研究,至2017、2018年,安全方面的技术在学术界已经成形。

同时,一些实际的案例爆发式出现,尤其在2018年之后,这让整个产业界开始反思,即是否需要提高人工智能发展的质量。当时国家相关部门也开始从法规标准上推进。内外驱动之下,推进了2019、2020年人工智能安全性技术的爆发增长。

针对安全问题,技术将发挥起基础性的作用。田天表示,RealAI推出了一系列更加安全可控的人工智能基础设施,作为一项产品,这是基于安全多方计算、联邦学习、匿踪查询等技术打造的数据安全共享基础设施RealSecure,用于解决数据隐私难题;针对人工智能系统推出的防火墙与杀毒软件平台RealSafe,能够为人脸识别、目标检测、图像分类等应用提供有效的安全检测与防御加固服务。

技术之外,会议还对数据治理的法律解决路径进行了探讨。魏薇表示,人工智能数据安全治理需加快法律法规的建立,确立不同主体人工智能数据权力与安全责任,设立问责制,制定和细化相关部门规章,开展人工智能数据安全执法,加大执法惩戒力度等。

经济观察网 记者 沈怡然 6月3日,瑞莱智慧科技有限公司(下称“瑞莱智慧”)CEO田天在2021北京智源大会上对记者表示,“人工智能导致的数据安全风险正成为一个不容忽视的现象,当我们采用人工智能时,必须考虑到这项技术的安全性、可靠性、合规治理,而第三代人工智能正在致力于解决该问题”。

普华永道预测,到2030年全球人工智能市场规模预计将达到了15.7万亿美元,约合人民币104万亿人民币。人工智能具有很多突出的技术优势,但它在很大程度上依赖数据,当数据未能被妥善治理,那么人工智能的发展也就受到阻碍。

在大会的分会场“AI安全与产业治理”论坛上,中国信息通信研究院安全所信息安全研究部主任魏薇表示,人工智能正导致一系列数据安全风险,包括数据的过度采集、数据偏见歧视、数据智能窃取、数据资源滥用等,这些都对国家和社会安全带来一定挑战。

第三代人工智能

中国科学院院士张钹曾对当前人工智能的技术阶段进行划分,目前人工智能技术已经走入第三代,过去的第一代人工智能,是以知识驱动的,很难大规模应用,第二代人工智能以数据驱动,包括深度学习、深度神经网络技术,可以形成语音识别、人脸识别等应用,但是技术本身的可靠性有待加强。那么第三代人工智能将致力于解决安全、可靠性等问题。

张钹是清华大学人工智能研究院院长,该研究院曾在2018年孵化了瑞莱智慧公司。该公司的CEO田天在会议上表示,当前第三代人工智能的几个重要任务是,首先,要解决技术的安全问题,作为一类全新的系统和软件,人工智能的算法会存在新的漏洞,而黑客或者黑产会利用系统漏洞来进行恶意攻击。

其次,要解决可解释性的问题,目前第二代人工智能深度神经网络是一个”黑盒“,即便是设计者也并不理解它是如何做决策的,对于落地的场景,也无法给一个合理的解释,这和现在很多应用场景是相悖的。

然后,解决可扩展性的问题。目前能做的人工智能场景有限,人类如何基于已获得的知识或模型,让技术在新的场景上发挥作用。

田天表示,这三大任务几乎针对人工智能的所有应用,其中最典型的一个场景是人脸识别。目前人脸识别可以做到99%的精度,但是一旦受到恶意攻击,出错几率几乎是100%,可以说人脸识别的安全性是明显不足的。

另一个危险是,目前有商家制作虚拟视频,恶意传播,对人脸识别技术滥用,这在经济和社会舆论上产生很大的负面影响。那么如何检测人脸是否被滥用,也在第三代人工智能要解决的问题范畴内。

技术、法律的解决方案

业界安全意识的发展,经历了一个过程。田天表示,人工智能学术领域从2014、2015年就开始关注该方向,瑞莱智慧也在当时正式提出相关的研究,至2017、2018年,安全方面的技术在学术界已经成形。

同时,一些实际的案例爆发式出现,尤其在2018年之后,这让整个产业界开始反思,即是否需要提高人工智能发展的质量。当时国家相关部门也开始从法规标准上推进。内外驱动之下,推进了2019、2020年人工智能安全性技术的爆发增长。

针对安全问题,技术将发挥起基础性的作用。田天表示,RealAI推出了一系列更加安全可控的人工智能基础设施,作为一项产品,这是基于安全多方计算、联邦学习、匿踪查询等技术打造的数据安全共享基础设施RealSecure,用于解决数据隐私难题;针对人工智能系统推出的防火墙与杀毒软件平台RealSafe,能够为人脸识别、目标检测、图像分类等应用提供有效的安全检测与防御加固服务。

技术之外,会议还对数据治理的法律解决路径进行了探讨。魏薇表示,人工智能数据安全治理需加快法律法规的建立,确立不同主体人工智能数据权力与安全责任,设立问责制,制定和细化相关部门规章,开展人工智能数据安全执法,加大执法惩戒力度等。

继续阅读
助力供电安全 电力巡检机器人蓝海显现

近年来,随着科技的持续进步,各行业转型升级进程不断加快,自动化水平日益提升。在此浪潮下,机器人成为了自动化产业发展重要着力点,已然是科技创新领域的主要代表。现阶段,在电力行业中,机器人逐渐成为巡检维修作业的有力助手,为我国电力领域发展变革提供了一定支撑作用。

未来,比人类更强大的不是AI,而是掌握了AI的人类

目前,AI已在汽车、教育、医疗等领域深度赋能。比如在汽车领域,去年有近600万辆汽车安装了科大讯飞的智能语音系统,通过语音就可以直接和汽车对话,实现导航、听歌等功能,这在万物互联时代还会越来越普及。

为什么说好的AI训练数据平台对人工智能至关重要

人工智能技术正应用到各个行业当中,并对推动人类科技经济发展起着加速作用。麦肯锡全球研究所(McKinsey Global Institute)的一项预测显示,随着人工智能技术越来越成熟,能力越来越强,预计它将极大地推动世界经济,到2030年将创造约13万亿美元的附加价值。

谷歌用AI设计AI芯片,6小时完成工程师数月工作

6月11日消息,谷歌称其正在使用机器学习系统帮助工程师设计新一代机器学习芯片。谷歌工程师表示,算法设计的芯片质量和人工设计“相当”甚至“还要更好”,但完成速度要快得多。谷歌表示,人工智能可以在不到6小时的时间内完成人工需要数月时间完成的芯片设计工作。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

设计一块AI芯片有多难?这么说吧,围棋的复杂度10360,而芯片则是102500,你感受一下……