取消
搜索历史
热搜词
原创
活动
产业创新
转型理念
ENI专访
当前位置:首页 >文章发布 > 正文
OpenAI员工发公开信警告“严重风险”,呼吁保护举报人
来源:凤凰网  作者: 佚名 2024-06-05 08:50:45
6月5日,知名人工智能公司现员工与前员工发表了一封公开信,警告该行业缺乏安全监督,并呼吁加强对举报人的保护。

6月5日,知名人工智能公司现员工与前员工发表了一封公开信,警告该行业缺乏安全监督,并呼吁加强对举报人的保护。这封呼吁《对人工智能提出警告的权利》的公开信,是人工智能行业员工就人工智能的危险的一次公开发声,11名现任与前OpenAI员工、两名谷歌DeepMind员工在这封信上签了名。

信中指出,“人工智能公司掌握着大量非公开信息,这些信息涉及其系统的能力和局限性、保护措施的充分性以及不同种类危害的风险水平。然而,这些公司目前只有微弱的义务与政府分享部分信息,而没有义务与民间社会分享信息。我们认为不能依靠它们全部自愿分享这些信息”。

OpenAI在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司存在的问题,并且在有适当的保障措施之前不会发布新技术。谷歌未立即回应置评请求。

OpenAI发言人表示,“我们为提供最有能力和最安全的AI系统的记录感到自豪,并相信我们在应对风险方面的科学方法。鉴于这项技术的重要性,我们同意进行严格的辩论是至关重要的,并且我们将继续与政府、民间社会和世界其他社区接触,”

人工智能潜在危害的担忧已经存在了几十年,但近年来的人工智能繁荣加剧了这些担忧,使监管机构措手不及,难以跟上技术进步的步伐。尽管AI公司公开表示承诺安全开发技术,但研究人员和员工警告称,缺乏监督可能会加剧现有的社会危害或创造全新的问题。

由现任和前AI公司员工签署的这封信首次由《纽约时报》报道,呼吁加强对在先进AI公司工作并决定提出安全问题的员工的保护。它要求公司承诺四项关于透明度和问责制的原则,包括一项规定,即公司不得强迫员工签署任何禁止公开AI风险相关问题的非贬损协议,并建立一个机制,使员工能够匿名向董事会成员分享担忧。

“只要这些公司没有有效的政府监督,现任和前任员工是少数能对公众负责的人之一,”信中写道。“然而,严格的保密协议阻止我们表达我们的担忧,除了对那些可能未能解决这些问题的公司。”

OpenAI等公司还采取了积极的策略,防止员工自由谈论他们的工作。据Vox上周报道,OpenAI让离职员工签署极其严格的保密文件,否则将失去所有已归属的权益。OpenAI首席执行官Sam Altman在报道后道歉,称他将改变离职程序。

在两名OpenAI高层员工、联合创始人Ilya Sutskever和关键安全研究员Jan Leike上月辞职后,这封公开信发布了。Leike在离职后声称OpenAI已放弃了安全文化,转而追求“闪亮的产品”。

周二的公开信呼应了Leike的一些声明,称公司没有表现出对其运营透明的义务。

免责声明:本文系网络转载,版权归原作者所有。本文所用图片、文字如涉及作品版权问题,请联系删除!本文内容为原作者观点,并不代表本网站观点。
编辑:乔帅臣
关键词:   人工智能  OpenAI  谷歌 
活动 直播间  | CIO智行社

分享到微信 ×

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。