(资料图片)
从横空出世到持续大火,ChatGPT不仅引发科技圈狂欢,也备受各国监管部门的关注。
欧洲议会近日通过了关于《AI法案》的谈判授权草案,该项法案光修正案就有一千多项。其中包含了有关面部识别、生物识别监控和其他AI应用使用的新规则,并提出严格监管ChatGPT等AI工具。无独有偶,作为未来监管的第一步,美国商务部上月已就相关措施正式公开征求意见,包括新AI模型在发布前是否应经过认证程序。
说起来,自AI诞生那天起人类就忧虑重重:作为顶尖智慧和技术的结晶,AI会不会带来我们无法承受的种种风险,甚至走向失控?彼时,机器人之父图灵如此告诫:尽管人类可以随时拔掉机器人的充电器,但在这种物种面前,我们仍不得不保持谦卑。以历史视角观之,“机器人三定律”等似乎缓解了一些忧虑,但随着相关技术的发展和应用的扩大,人工智能所面临的法律与伦理冲突的复杂性远不是几条简单甚至“一厢情愿”的定律所能约束的了。尤其在过去这段时间里,ChatGPT让人惊喜不已,但同时也唤醒并加剧了人类对其后风险的“原始畏惧”。无论是全球千余名业界大佬公开签名呼吁暂停研发比GPT-4更强大的AI系统,还是在业内有“AI教父”之称的计算机科学家杰弗里·辛顿因对生成式AI感到担忧而于本月初离职谷歌,无不折射出不少人对AI的心态已从“相对警惕”转变为“如临大敌”。
理性来看,“AI末日论”多少有些危言耸听,但种种现实担忧也绝非杞人忧天。就眼下来看,不断进阶的AI正催生着多重风险——由于无法核实数据来源的真实性,以及缺乏足够数据进行深度学习,生成式AI常会“一本正经”生成和传播虚假信息;数据挖掘像个“黑箱”,简单快捷、“百无禁忌”,为学术不端大开方便之门不说,还可能侵犯知识产权,以及泄露个人数据隐私和商业秘密……试想,当网络上充斥着越来越多不知真假的图片和视频,当AI几秒钟就“洗”出一篇像模像样的稿件,乃至能够以一键换脸、一键脱衣等危害公共秩序,我们是否还有信心用好这个工具?更关键的,人类从来都是在思考中迸发灵感、在试错中革新向前,可当AI提供了前往正确答案的“直通车”,不仅可能“挖空学习资源”,更可能反噬创新。
技术是把双刃剑,如何把握好技术创新与防范风险的平衡向来是一道难题。在科技伦理上,这通常被称为“科林格里奇困境”——技术尚未出现,监管者无法提前预测其影响并采取行动;而当它已经出现时,采取行动往往为时已晚或成本过高。相对乐观的是,人类又总能通过不断适应新技术的发展而调整治理手段,一次次从这种困境中走出来。以汽车为例,在大规模上市前,人们就为其安装上了刹车,之后也一直在完善汽车的安全性,甚至在汽车发明100多年后,我们还在为其安全“打补丁”——加装安全气囊。以史为鉴,为狂奔的AI安上“刹车”,同样势在必行。
无规矩不成方圆。这一方面欧美在行动,中国也在积极探索。一个月前,网信办发布《生成式人工智能服务管理办法(征求意见稿)》,从大模型的数据来源要可靠、对AI生成的内容应履行告知义务、一旦造成损害相关责任方需要承担责任等方面给生成式AI的发展套上了“笼头”。诚如比尔·盖茨所言,真正在全球范围内暂停人工智能技术的开发,已经不太现实。但确保其被健康地使用,防止打开潘多拉魔盒,却是必要的。换句话说,除了跟上创新步伐、谋求技术突破,如何构建一套趋利避害的AI治理体系,同样是一条不可忽视的竞争赛道。
“利维坦”“乌托邦”这两个词汇,想必大家都很熟悉。有学者借此,将“赛先生”的两个发展趋向形容为“赛维坦”(对科技无所抗拒又无能为力)和“赛托邦”(科技最大程度造福社会)。如今重重挑战在前,我们不必过分悲观,也不能盲目乐观,坚定驯服“赛维坦”的信心,保持实现“赛托邦”的理想,在遵从科技伦理、人本主义、法治理念的基础上,不断完善人工智能相关法规,力求价值引领与技术“纠错”并行、秩序保障与创新提升协同、权益维护与义务承担对称,就能最大程度争取科技向善。(晁星)