规范生成式人工智能发展—科学家必须监督其使用的必要性
  NFuyy6GgPVw8 2023年11月30日 11 0

原创 | 文 BFT机器人

规范生成式人工智能发展—科学家必须监督其使用的必要性_人工智能


建立一个独立的科学机构来测试和认证生成式人工智能,以免该技术损害科学和公众信任在科技公司OpenAI发布生成式人工智能ChatGPT近一年后,各个公司正在进行军备竞赛,以开发更强大的“生成式”人工智能系统。


生成式人工智能系统的每个版本都增加了进一步夺取人类技能的功能。通过生成文本、图像、视频甚至计算机程序来响应人类的指示,生成式人工智能系统可以使信息更容易获得并加速技术发展。同时,它们也带来了风险。


人工智能系统可能会在互联网上充斥着错误信息和“深度伪造”——合成面孔和声音的视频,这些视频可能与真人无法区分。从长远来看,这种伤害可能会损害人民、政治家、媒体和机构之间的信任和利益。


生成式人工智能也威胁着科学本身的完整性,生成式人工智能已经改变了科学家寻找信息、进行研究以及撰写和评估出版物的方式。商业“黑匣子”人工智能工具在研究中的广泛使用可能会带来偏见和不准确的风险,从而降低科学知识的有效性。生成的输出可能会歪曲科学事实,但它呈现出来看似仍然具有权威性。


风险是真实存在的,但禁止这项技术似乎是不现实的。我们如何才能从生成式人工智能中受益,同时避免其危害?


规范生成式人工智能发展—科学家必须监督其使用的必要性_人工智能_02


各国政府开始对人工智能技术进行监管,但全面有效的立法还需要数年时间。欧盟人工智能法案草案(目前正处于谈判的最后阶段)要求透明度,例如披露内容是人工智能生成的,并发布用于训练人工智能系统的受版权保护的数据摘要。


美国总统乔·拜登政府旨在进行自我监管,今年7月,他宣布已获得七家领先科技公司的自愿承诺,“承诺管理人工智能带来的风险并保护美国人的权利和安全”。并且提出给识别文本、图片或视频来源的数字“水印”可能是一种可行的机制。


今年8月,中国国家互联网信息办公室宣布将执行人工智能法规,包括要求生成式人工智能开发人员禁止传播有违中国社会主义价值观的错误信息或内容。英国政府也将于11月在米尔顿凯恩斯的布莱切利公园组织一次峰会,希望就限制人工智能风险达成政府间协议。


然而,从长远来看,尚不清楚法律限制或自我监管是否是有效。然而,人工智能正在以惊人的速度发展,现有的法规在成为官方政策时已经过时了,并且可能无法预测未来的危害和创新。


事实上,控制人工智能的发展将需要一个平衡专业知识和独立发展的持续过程。这就是为什么科学家必须成为保护这项新兴技术影响的必要性。研究人员必须带头测试、证明和改进生成式人工智能系统的安全性,就像他们在其他政策领域所做的那样。理想情况下,这项工作将在独立于商业利益的专门机构中进行。


然而,大多数科学家没有设施或资金来独立开发或评估生成式人工智能工具。只有少数大学部门和少数大型科技公司有资源的会这样做。例如,Microsoft向OpenAI及其ChatGPT系统投资了100亿美元,该系统是根据从互联网上抓取的数千亿个单词进行训练的。


出于商业原因,公司不太可能公布其最新车型的细节,从而排除了独立的验证和监管。因此,对于管理和制衡生成式人工智能这条道路上,各国和各大科技公司都任重而道远。


END


若您对该文章内容有任何疑问,请与我们联系,将及时回应。

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月30日 0

暂无评论

推荐阅读
NFuyy6GgPVw8