本文作者:创意奇才

Altman被曝七宗罪,OpenAI竟欲加密GPU合作军方?员工大批离职团队濒临崩溃

创意奇才 05-24 617
Altman被曝七宗罪,OpenAI竟欲加密GPU合作军方?员工大批离职团队濒临崩溃摘要: 知名主持人杨帆最近可谓是遭遇了事业低谷期近日他主持的两大热门节目相继发生重大变动无疑对他的职业发展带来了一定冲击杨帆离开长期主持的向幸福出发月日声明本文来自于微信公众号新智元作者新...

知名主持人杨帆最近可谓是遭遇了事业低谷期。 近日,他主持的两大热门节目相继发生重大变动,无疑对他的职业发展带来了一定冲击。 杨帆离开长期主持的《向幸福出发》 5月14日....

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权 转载发布。

【新智元导读】刚刚,有网友仔细总结了的七宗罪,对Altman发出愤怒的诘问:为何计划跟踪GPU?为何合作军方?员工滚雪球式离职的消息不断曝出,整个对齐团队已经濒临崩溃,「说谎」「心口不一」的形象愈发鲜明,Altman正在失去民心。

OpenAI的离职潮,已经像滚雪球一样,根本停不下来了。

Ilya的离去,仿佛是压弯骆驼的最后一根稻草。

由Ilya领衔的超级对齐团队,是防止AGI失控、保护人类的最后一道屏障。

然而Altman统治下的OpenAI,把光鲜的产品置于安全之前,让超级对齐团队在计算资源方面捉襟见肘,完成关键研究变得越来越困难。

不断离职的超级对齐团队员工纷纷表示:我们已经彻底失去信心,无法再对OpenAI在AGI时代的行为负责了。

昨天曝出的股权协议原件,更是让Altman言行不一的面目暴露出来——文件上明明有Altman的签名,他却极力否认自己对此事知情。

在OpenAI这个可能影响全人类命运的机构中,究竟发生了什么??

现在,已经有愤怒的网友发帖,历数了OpenAI的七大罪状:无视AGI风险、逼迫员工放弃股权却装失忆、反对开源、跟踪GPU、泄露隐私、和军方合作等等……桩桩件件都附有参考链接。

又一对齐员工离职

OpenAI的超级对齐团队,现在就像多米诺骨牌一样。

上周,首席科学家兼联合创始人Ilya Sutskever宣布辞职,紧接着高管Jan Leike也辞职了。

Leike指责OpenAI把「光鲜的产品」放在安全之前,并表示超级对齐团队「在计算资源方面捉襟见肘」,完成这项关键研究「变得越来越困难」。

这周和上周的离职事件,紧随另外两名安全研究员Daniel Kokotajlo和William Saunders,也出于类似的原因离职。

如今, 又有一名团队成员高调宣布了自己的离开。

在得知Ilya Sutskever和Jan Leike的消息前几个小时,我就已经选择了离职。

我们需要做更多的工作来改进决策过程、问责制、透明度、文档记录、政策执行、使用自身技术时的谨慎态度,以及减少对不平等、权利和环境影响的措施。

这些担忧对于现在的社会来说非常重要。它们影响着未来发展的方向,以及由谁来引领。我想强调的是,不管是我们内部的还是来自其他人的担忧不应该被误解为狭隘的、推测性的或不相关的。它们不是。

科技公司往往会通过在提出质疑或挑战其权力的人之间制造分歧,来削弱那些试图对其进行问责的人。

我很感激自己有能力和支持去做这件事,这在很大程度上要归功于Daniel Kokotajlo给的勇气。我也明白,在整个行业中,还有很多人无法做到这一点。

OpenAI仍在开展许多重要工作,包括扩大访问权限、准备框架开发、增强信心的措施,以及解决我之前提到的担忧。我仍然对这些工作及其成功充满期待和投入。

历数OpenAI「七宗罪」

至此,我们已经无法再用玩梗蒙蔽自己了。.

Ilya等安全团队的人员离去,大概率跟AGI或者GPT-5都无关,而是被逼得走投无路。

自从OpenAI发生第一轮宫斗、Sam Altman被罢免以来,整个OpenAI的情绪就不对劲了。

显然,Altman在合作伙伴关系和产品重点方面的发展方向,已经超出了大多数人能接受的程度。

他的危险面目,随着时间线的推移,也越来越清晰地暴露出来。

而且,OpenAI最近公布的AI治理计划,也掀起了轩然大波。

OpenAI提出,将加密保护扩展到硬件层,实现以下属性——

1. GPU可以通过加密方式验证其真实性和完整性。

2. 具有加密原语的GPU可以使模型权重保持加密状态,直到它们被暂存并加载到GPU 上。这在主机或存储基础设施受到损害时,增加了重要的深度防御层。

3. 具有唯一加密身份的GPU,可以为特定GPU或GPU组加密模型权重和推理数据。完全实现后,这可以使模型权重只能由属于授权方的GPU解密,并且可以允许推理数据从客户端加密到服务其请求的特定GPU。

这些内容,无疑让人恐慌。

比如第一句:GPU可以通过加密方式验证其真实性和完整性。

这也就意味着,如果我们从英伟达买一块GPU,它会像DRM一样进行签名,从而被批准运行和加速AI模型。

假如一个小公司来购买硬件,现在就需要经过额外的层层审批,才能把自己的硬件推向市场,这无疑很可怕。

大概没有多少人希望自己的GPU是签名的,大家都会希望使用匿名的GPU。

第二条也很诡异,必须每个硬件上都有签名,才能允许我们运行AI,这简直是一件荒谬的事。因为如果上面有签名,他们也就可以撤销签名,谁有权决定呢?

第三条也是如此,模型权重只能由属于授权方的GPU解密,这个权力属于谁?

而其中这句话,也显示出OpenAI的重点在于保护模型权重,而非开源,或开放权重,这个观点已经与开源AI的大力支持者大相径庭了。

一名网友锐评道:这些关于安全和保障的很多想法,让我摸不着头脑,很多内容显示出,OpenAI正在全力以赴地关注闭源架构,这让我更感激Meta这样的开源公司了。

前几天此消息曝出:如果OpenAI员工在离职时拒绝签署要求严苛的协议,无法保证永不批评OpenAI,那他们可能就会失去已有的OpenAI股权。

瞬间让科技圈炸锅。面对群情激愤的声讨,Altman紧急发布道歉声明,表示自己从不知道OpenAI有威胁股权的条款,以后也不会这样做。

然而他随后就被打脸了,外媒扒出了更多内部协议。

这些文件显示,OpenAI几乎拥有所有权利,可以任意将股权从前员工那里收回,或者阻止他们出售股权。

签署这些文件的,正是Sam Altman,签署日期为2023年4月10日。

随后,更多霸王条款曝出。比如OpenAI发给离职员工一份冗长且复杂的终止文件,需要在七天之内签署完毕。

这意味着,前员工仅有一周的时间,去决定是否接受OpenAI的「封口费」,否则就会失去数百万美元股权。

而且,当前员工要求额外2-3周的时间寻求法律援助并审查文件时,却遭到了OpenAI的强烈反对。

「The General Release and Separation Agreement」(概括性索偿弃权书和离职协议)需要你在7天内签署。我们希望确保你明白,如果你不签署,这可能会影响你的股权。这对每个人都是一样的,我们只是按规章办事」。

对此,加州的就业律师Chambord Benton-Hayes表示,「一家企业威胁收回已归属的股权是极其恶劣和不寻常的」。

然而,OpenAI大多数前员工,却对这样的霸王条款屈服了。

而整件事最荒谬的,还是以Altman为首的OpenAI高管事后堂而皇之的装傻。

昨天,在一片乱中,OpenAI依然官宣了和 集团News Corp的合作,并将之成为「里程碑意义的多年全球合作伙伴关系」。

Altman被曝七宗罪,OpenAI竟欲加密GPU合作军方?员工大批离职团队濒临崩溃

根据协议内容,News Corp的 内容都会引入OpenAI。

OpenAI有权显示相关媒体报头的内容,用来回答用户问题,目的是「让人们根据可靠的消息和 来源,做出明智的选择」。

News Corp旗下的出版物,包括《华尔街日报》、《巴伦周刊》、《MarketWatch》、《投资者商业日报》、《FN》、《纽约邮报》、《泰晤士报》、《星期日泰晤士报》、《太阳报》等等。

对此,网友评价说:看这个名单就知道,OpenAI选择了非常糟糕的合作方。

这些媒体一向把右翼宣传作为商业模式,引起政治讨论,使用一切必要的手段来推动叙事,甚至曾通过福克斯 否认2022年的总统选举。

甚至News Corp还曾卷入这样一起丑闻,涉嫌侵入600多人的手机,来获取情报。

从此,我们使用OpenAI的产品时,无可避免地会受到某些倾向的影响。

而且,以后AI聊天机器人的世界,也将到处充斥着广告。

不久前一份泄露的文件显示,OpenAI计划在GPT聊天中,纳入品牌优先权。

根据文件,凡是加入该计划的公司,都会在ChatGPT等产品的聊天对话中获得优先权,品牌能够露出得更多,链接中也会更强调它们的内容。

而且通过PPP,OpenAI甚至还会向出版商提供许可的财务条款。

获得更丰富产品表达的公司,将拥有品牌悬停链接、锚定链接和内嵌处理。

悬停处理中,OpenAI会在搜索查询的响应中,超链接关键字。这些链接会显示为蓝色文本,鼠标悬停在上面时,会显示可单击的选项卡。

在锚点处理中,ChatGPT对用户查询响应的下方,会出现一个可点击的品牌化按钮。

内嵌产品则会在ChatGPT响应的文本中插入引文,字体更大,并且包含可点击的品牌链接。

总之,ChatGPT从此会变成被商业广告操控的世界。

开源和闭源之争中,OpenAI已经联合微软正式下场,试图对政府施加影响了。

最近,由科技巨头、初创公司和风险投资家组成的联盟,正在花费数百万美元来说服华盛顿,让他们相信对AI世界末日的担忧被夸大了。

他们的行动已经产生了影响。他们的影响力网络在推动这样一种观点:与其说AI是一种生存威胁,不如说是一个重要的商业机会,绝不能让严格的安全措施,把美国的AI优势拱手让给他人。

华盛顿的游说格局,已成为一场由大量资金支持的、近乎哲学争论的战争。

微软和OpenAI这一派的观点是,提倡严格的安全限制和许可要求。严格的限制,显然对拥有最强大AI的公司是有利的。

而Meta、IBM等公司,更依赖于开源AI模型,而非OpenAI、谷歌等追求的闭源框架,因此他们力图推动一种规则更少、更加开放的方法。

无论是IBM还是Meta,都在开源斗争中投入了大量的游说资源。自从2023年中期的AI辩论爆发以来,IBM为游说华盛顿投入了400万美元,Meta则花费了超过1700万美元。

而OpenAI,当然不希望这些开源既得利益者迎头赶上。

在上周的OpenAI大会上,技惊四座的GPT-4o所宣传的重点,显然被放在了情感依恋上。

然而,无论是开发高度情绪化的语音输出,还是通过声音读取某人情绪健康的能力,无疑都是潜在的危险方向。

据说,Ilya是反对这一决定的。在他看来,除了学习说服之外,AI学习语音方式并没有什么好处。

发布会上,GPT-4o加持的AI语音助手,更加情感丰富,现场展示的幽默和害羞等特质,让它更像个人类。

与之相比,谷歌介绍Astra时,用的最多的词就是「助理」,这就明确显示了谷歌对于语音助手的定位。

显然,在AI助手这方面,OpenAI的尝试更大胆,谷歌则更谨慎。

谷歌的态度,此前也有迹可循。此前它就一直在有意远离「Her」型的AI。

上个月,Google DeepMind的研究人员发布了一篇论文,详细阐述了拟人化人工智能的潜在弊端,称这类助手可能会重新定义「人类」和「其他」之间的界限。

论文地址:https://arxiv.org/*/2404.14068

而这,就可能会导致一些危害。例如用户会将重要的决策交给AI,向AI透露敏感信息,或者在情感上过度依赖AI等等。

这样的结果,可能是灾难性的。毕竟,《Her》中描述的并不是一个happy ending,更像是一个反乌托邦的未来。

显然,这个问题,并不在OpenAI的考虑范围之内。

最后一件危险的事就是,今年OpenAI已经悄悄删除了针对「军 事和战争」使用ChatGPT的禁令,因此,军方也可以使用ChatGPT技术了。

虽然目前看来,OpenAI提供的任何服务都无法用于直接杀人,比如操控无人机或发射导弹,但他们可以增强许多相关的任务,比如写代码、处理采购订单。

有证据表明,美国的军 事人员已经在使用ChatGPT加快文书工作,美国 地理空间情报局已经公开考虑,使用ChatGPT来协助人类分析师。

要知道,OpenAI一直和主要国防承包商微软合作密切,迄今为止,微软已经向OpenAI投入了130亿美元的巨资。

在当前的局势下,全世界的军队都渴望用AI技术来武装自己。

虽然LLM不可避免的幻觉,以及用ChatGPT分析机要信息或敏感数据可能会带来安全风险,但五角大楼的态度,仍然是渴望拥抱AI。

在11月的一次讲话中,国防部副部长Kathleen Hicks表示,人工智能是「我和Lloyd Austin部长从第一天起,就一直在推动的以作战人员为中心的创新的关键部分」。

老将出走,员工炮轰,接下来的OpenAI,会在「惯会说谎」的Sam Altman治下走向何方?

参考资料:

https://www.reddit.com/r/singularity/comments/1cyn4yy/its_becoming_increasingly_clear_that_openai/

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享