规范人工智能须“防”“护”并重

标签:人工智能
分享到:

J$9AB])B0A)%EAH5H0UHP~S

最近,人工智能产品ChatGPT横空出世。由于具有语言理解和文本生成能力,特别是能够从事论文写作、翻译以及制作司法裁判文书等工作,该产品引发了人们对人工智能在经济社会发展中应用的广泛讨论。与此同时,我国工业和信息化部等部门联合印发了《“机器人+”应用行动实施方案》,明确了人工智能机器人应用的10大重点领域,提出推动各行业、各地方结合行业发展阶段和区域发展特色,开展“机器人+”应用创新实践;搭建国际国内交流平台,形成全面推进机器人应用的浓厚氛围。这都预示着人工智能加快应用的时代正在到来。

人工智能作为一种战略性新兴技术,其蓬勃发展和广泛应用,将塑造和赋能越来越多的行业、领域和应用场景,形成“人工智能赋能+”效应,为经济社会发展注入强劲动能。不过,人工智能应用是一把“双刃剑”,它在赋能经济社会发展的同时也可能引发风险。一是新型法律纠纷风险,比如人工智能侵权纠纷、著作权纠纷、人工智能技术滥用带来的权益纠纷等。二是道德风险。人工智能不能进行价值判断,但它是在研发人员价值观念支配下设计开发出来的,容易受研发者秉持的价值观念影响。三是人工智能技术不完善造成的社会公害风险,比如算法歧视、泄露隐私信息等。对此,必须加强对人工智能潜在风险的研判和防范,确保人工智能安全、可靠、可控。

在规范策略上,应坚持规制与保障并重。一项新技术从研发到进入市场,再到融入社会生产、生活,产生风险是难以避免的,不能因为风险而放弃新技术的研发和应用。理想目标应是把风险最小化,把技术获利最大化。这就要求法律和政策做到规制与保障并重。要通过法律与政策手段解决人工智能引发的风险,实现有序发展;同时,要确保人工智能创新发展,更好赋能经济社会。不过,规制与保障之间可能存在价值冲突,规制不当可能扼杀人工智能的创新发展,必须审慎地处理好二者之间的关系。

在规范手段上,注重软性引导与硬性约束同向发力。应根据人工智能应用产生风险的原因,有针对性地采用不同规范手段。对人工智能因技术不完善引发的风险,主要依靠软性规范。软性规范具有倡导性、灵活性强的特点。可以通过制定指南或行业自律等方式引导技术向善,防范潜在风险发生。这是防范人工智能风险不可或缺的手段。

对滥用人工智能技术引发的风险,则要依靠硬性约束。硬性约束规定明确,可操作性强,能够为人们如何行为提供具体指引,并且有强制力保障。随着人工智能广泛应用于各行业,滥用人工智能技术多发频发,这就需要通过硬性约束,规范治理人工智能滥用问题。目前,我国专门针对人工智能技术滥用而出台的法律数量少、位阶低,亟需加大立法步伐。

在规范方式上,强化政府与企业治理协同,相辅相成,相互保障。具体而言,政府应扮演人工智能发展政策的制定者、治理议程的设置者以及法律法规实施的监督者等角色。企业是人工智能技术、产品或服务研发和使用的主体,也是发展人工智能的责任主体,必须担负起人工智能风险防范的社会责任。应加强人工智能技术企业间的合作,依靠技术手段防范人工智能风险。

继续阅读
人工智能的重塑就业是否企业可能比员工受益更大

人工智能对‘暴露度’高的企业有利,但是否对员工有利还有待观察。

人工智能发展还需数据支撑智能化时代加速到来

2023年,人工智能的火热超出了人们的想象。OpenAI公司的ChatGPT横空出世,点燃了当下人工智能热潮的第一把火。此后,一系列基于人工智能大模型的应用,让我们逐渐意识到如今的人工智能已不再仅仅只是简单地“语音助手”,在一定程度上可以帮助或者替代人类在各个行业的具体工作。

医疗领域的人工智能应该被制定行为准则?

生成式人工智能的兴起促使一位人工智能伦理学家提出了一个框架,以降低在医疗领域使用这项不断发展的技术的风险。与此同时,ChatGPT旗下OpenAI的首席执行官也敦促美国立法者开始监管人工智能,以保障人类的安全。

非阿贝尔任意子被谷歌量子人工智能首次编织

我们的直觉告诉我们,应该不可能看到两个相同的物体是否来回交换,并且对于迄今为止观察到的所有粒子来说,情况都是如此。到目前为止。

汇入马克思所言,人工智能或将会导致“文明毁灭”!

埃隆·马斯克在最新一次采访中警告说,人工智能可能导致“文明毁灭”,尽管他已通过多个自家公司深入发展人工智能产业。

精彩活动