◎刘怡鹤
自年初以来,ChatGPT及其背后的人工智能(AI)大模型吸引全球科技巨头展开新一轮竞争。与此同时,全球也在加强对新一代人工智能技术和应用的科学有效监管。
4月11日,国家互联网信息办公室发布了《生成人工智能服务管理办法(草案)》(以下简称《草案》)公开征求意见的通知。同日,美国商务部正式就如何制定人工智能问责措施征求意见。此前,意大利、加拿大和其他国家也对这一领域采取了相关的监管措施。
《上海证券报》记者采访了企业代表和专家,了解到人工智能大型模型具有高度的不可解释性和潜在的不可控性,隐私和数据安全、伦理和道德风险已初步显现。在人工智能大型模型指数的发展势头下,迫切需要科学有效的监督,以平衡促进创新和防范风险。
加强全球人工智能监管
当华为、百度、尚堂科技等科技巨头拿出人工智能大模型“展示肌肉”时,草案的发布意味着中国生成人工智能产业即将迎来第一份监管文件。
草案明确规定,利用生成人工智能产品提供聊天、文本、图像、声音生成等服务的组织和个人,应当承担产品生成内容制作人的责任;涉及个人信息的,应当承担个人信息处理人的法律责任,履行个人信息保护义务。
当地时间4月11日,美国商务部正式征求关于如何制定人工智能问责措施的意见。美国商务部下属的美国国家电信和信息管理局负责人表示,该机构希望建立人工智能模型可信度、合法性和道德标准的审查制度。
自3月底以来,越来越多的国家加强了对人工智能领域的监管。意大利数据隐私监管机构因涉嫌非法收集个人数据和缺乏未成年人年龄验证而下令暂时禁止使用ChatGPT。随后,德国当局表示,有可能采取类似的措施。加拿大也开始调查ChatGPT背后的OpenAI。
在监管政策方面,欧盟正在讨论的《人工智能法案》还考虑将人工智能模型带来的新情况纳入监管范围。例如,在没有人类监督的情况下生成复杂文本的监管行为。英国最近发布的《支持人工智能创新的监管方法》白皮书还提出了该领域的监管框架。
不可解释的是人工智能大模型的终极风险来源
专家认为,由于对人工智能大模型潜在风险的担忧,政府加强监管。
“虽然人工智能大模型诞生于算法工程师编写的代码,但大模型神经网络之间的连接是自发生成的,这使得开发人员无法解释ChatGPT生成的内容。”人工智能联合创始人马千里说。
现阶段“算法高度黑箱化”的可解释性较差。更令人担忧的是,随着未来大型模型的智能化和广泛应用,将进一步出现失控的风险。这引起了人们对人工智能的终极担忧——如果人工智能觉醒有意识,会危害人类吗?
在实际应用层面,隐私和数据安全风险首先受到监管机构的关注。“当用户使用人工智能大模型工具时,他们通过对话输入大量数据,最终被人工智能大模型开发者掌握和使用,存在个人隐私或商业秘密泄露的风险。此外,人机对话中的信息可以直接反映用户的兴趣和关注点。利用这些数据,人工智能大型开发人员可以形成更实时、更准确的用户肖像。上海社会科学院信息研究所副所长丁波涛说。
上海交通大学安泰经济与管理学院教授史占中认为,ChatGPT可以在很短的时间内回答用户的问题,但在缺乏内容审核的情况下,特别是如果被别有用心的用户滥用和诱导,ChatGPT很容易产生非法等有害内容。
同时,建立有效的内容审计机制也相当困难。”ChatGPT目前在世界各地拥有数亿用户。如果用户数量进一步增加,它将几乎实时地产生无限的应用程序和无限的算法创建。这种审计难度远远超过了抖音、小红皮书等算法推荐社交平台对有限内容的审计难度。”马千里说。
OpenAI最近发表的一篇工作论文研究了ChatGPT使用的GPT模型及相关技术对美国劳动力市场的潜在影响。研究结果表明,至少80%的美国劳动力将受到大模型的影响,10%的工作将被取代;19%的美国劳动力将被50%以上的工作取代。
然而,从人类工业革命的历史经验来看,专家们认为,没有必要过度恐慌人工智能对劳动力市场的影响。”虽然有些职位被取代了,但也会创造更多的职位。就像汽车出现后,马车夫失去了工作一样,但他创造了更多的新职位,如汽车制造、驾驶和维修。”史占中说。
监管应平衡和鼓励创新和风险防范
虽然整个社会仍然需要不断发现和判断人工智能大模型的风险,但从上述国家的监管声音和措施来看,我们不能因为窒息而放弃进食。在风险背后,人工智能大模型的强大生产力和创造力预计将大大提高整个社会的效率。
早在2019年,中国就提出了和谐友好、公平公正、包容共享等人工智能健康发展的八项原则。在此基础上,草案表示,国家支持人工智能算法、框架等基础技术的自主创新、推广应用和国际合作,鼓励优先使用安全可靠的软件、工具、计算和数据资源。
对于意大利和其他国家采取的更激进的措施,马千里认为,这些国家缺乏独立的互联网产业发展,因为在大型产品消费者的立场上,他们更注重保护自己和自己用户的利益。史占中认为,在短期内,这只是一个阶段性的缓慢政策,并不能从根本上解决这个问题。
“一方面,中国应关注其他国家人工智能监管法规的变化,避免人工智能领域国内外技术经贸交流合作的合规风险。另一方面,我们也应该从确保个人信息安全的实践中学习,加强和完善中国的人工智能治理体系。”丁波涛说。
丁波涛还表示,要加强监管体系和手段创新,突破静态固化监管模式,通过沙箱监管、敏捷监管等新的监管模式,更加平衡地促进创新和风险防范。
未经数字化报网授权,严禁转载或镜像,违者必究。
特别提醒:如内容、图片、视频出现侵权问题,请发送邮箱:tousu_ts@sina.com。
风险提示:数字化报网呈现的所有信息仅作为学习分享,不构成投资建议,一切投资操作信息不能作为投资依据。本网站所报道的文章资料、图片、数据等信息来源于互联网,仅供参考使用,相关侵权责任由信息来源第三方承担。
Copyright © 2013-2023 数字化报(数字化报商业报告)
数字化报并非新闻媒体,不提供新闻信息服务,提供商业信息服务
浙ICP备2023000407号数字化报网(杭州)信息科技有限公司 版权所有浙公网安备 33012702000464号