C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  三级军士长

注册:2010-4-285
发表于 2024-11-27 21:06:49 |显示全部楼层

11月27日凌晨,OpenAI的文生视频模型Sora,被人恶意泄露了API,使其短暂地开放了1小时左右。

亚星游戏官网-yaxin222


据了解,此次泄露事件是由于自今年年初OpenAI首次预告了其文本转视频AI模型 Sora后,一直没有提供任何具体的更新。导致一群参与OpenAI新型文本转视频AI模型Sora的测试艺术家,因对企业的不满而泄露了该模型的早期访问权限。

在OpenAI介入并关闭相应权限之前,已经有不少人制作了AI视频并流出。此次对于OpenAI会造成什么样的影响呢?

艺术家们的愤怒

据悉,泄露者通过AI开发平台Hugging Face发布了一个与Sora API相关的项目,利用早期访问的认证token,创建了一个前端界面,允许用户生成视频。通过这个前端,任何用户都可以输入简短的文字描述,生成最长10秒、分辨率高达1080p的视频。

亚星游戏官网-yaxin222


随后,许多用户在社交媒体上分享了生成的视频示例,这些视频大多带有OpenAI的视觉水印。然而,短暂地开放了1小时左右,前端界面就停止了工作,外界猜测OpenAI和Hugging Face可能已经撤销了访问权限。

亚星游戏官网-yaxin222


而且,这些艺术家在Hugging Face这一公共AI模型平台上发布了他们的抗议信,声称自己在测试过程中被企业利用,成为“无偿的研发和公关工具”。

在这封公开信中,艺术家们表示:“亲爱的企业AI领主们,大家获得Sora的测试权限时,被承诺是早期测试者和创意合作伙伴。然而,大家认为自己只是被引诱进入一种‘艺术洗白’的过程,为Sora做宣传。” 他们强调,艺术家不是企业的 “免费bug测试员、宣传工具、训练数据或验证token”。

亚星游戏官网-yaxin222


有意思的是,在公开信相关网站上,它获得了122名联名支撑者,其中甚至出现了马斯克的名字。但考虑到签名系统不需要严格的身份认证,暂时不能确定其是否为马斯克本人。

亚星游戏官网-yaxin222


在事件发生后,当有媒体联系OpenAI时,OpenAI并未证实Sora泄露的真实性,但强调参与 “研究预览” 的艺术家是自愿的,并不需要提供反馈或使用该工具。

科技旋涡认为,年初OpenAI首次向世界展示了Sora,其生成视频的时长、质量让人耳目一新,但几乎一年时间过去了,OpenAI对Sora还没有有效更新,不过这还不是最可怕的,如果当它的正式版本发布后,已经属于落后的技术,那才是OpenAI的悲哀。

OpenAI的安全问题

Sora相关项目的泄露很容易让人们联想到安全的问题,如果这个事件继续发酵,很容易让大家对利用大量数据进行训练的AI企业失去信任。

而且,这样的安全隐患随着一位已辞职的OpenAI团队负责人的发言变得越来越接近,他表示,科技巨头MicroSoft斥巨资支撑的OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”团队,该团队曾经负责向这家AI初创企业提供如何处理与应对越来越强大的AI技术方面的解决方案与建议,以及提供当今世界是否准备好管理这些技术方面的建议。“AGI Readiness”团队曾经的团队主管表示,希翼在外部继续AGI领域的相关研究。近期越来越多迹象表明,OpenAI似乎全身心投入AI创收,无暇顾及AI安全。

亚星游戏官网-yaxin222


而在本月初,OpenAI再痛失一员大将,OpenAI安全研究副总裁Lilian Weng发出长信,官宣离开OpenAI的安全团队。

今年9月,OpenAI宣布其安全与安保委员会将成为独立的董事会监督委员会,该委员会于今年5月成立,负责处理有关安全流程的争议。该委员会最近结束了为期90天的审查,对OpenAI的流程和保障措施进行了评估,然后向董事会提出了建议。

高管离职和董事会变动的消息也是继今年夏天围绕OpenAI的安全问题和争议日益增多之后传出的,此时OpenAI与GOOGLE、MicroSoft、Meta和其他企业正处于生成式人工智能军备竞赛的风口浪尖——据预测,这个市场将在十年内达到1万亿美金的营收规模——因为各行各业的企业似乎都急于增加人工智能聊天机器人和代理,以避免被竞争对手甩在身后。

据The Information援引一位了解相关会议情况的人士透露,今年夏天,在一些并未公开的会议上,奥特曼的团队向美国国家安全官员展示了“草莓”模型。

亚星游戏官网-yaxin222


报道指出,通过向政府官员展示一项尚未发布的技术,OpenAI可能为人工智能开发者树立了新标准,尤其是在先进人工智能日益成为潜在安全隐患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者认为该项技术形成威胁,那么他们可能给企业带来麻烦。

不过,一些业界人士对此并不买账,因为OpenAI并未向公众提升透明度。AI初创企业Abacus.AI CEO Bindu Reddy表示,封闭的OpenAI将他们最好的大模型藏在背后,以此来取得领先优势。“如果没有开源AI,大家都会完蛋,大家可能会把文明的控制权交给1到2家企业。”

写在最后

虽然这次艺术家们的泄露只是抒发出自己的不满,好像没有造成更大的影响,但OpenAI的ChatGPT平台被曝出一系列沙盒漏洞,用户竟能在本不该接触的环境中游刃有余,文件上传、命令实行甚至文件结构浏览,这令人不禁想起黑客神秘的入侵操作。这些安全问题的出现,进一步凸显了OpenAI在网络安全方面的潜在风险。


来源:36kr

举报本楼

本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-12-22 16:31 , Processed in 0.172558 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图