- Published on
AI教父Hinton支持诉讼,阻止OpenAI转型盈利
OpenAI转型引发争议
上周五,OpenAI宣布计划将其组织拆分为营利性和非营利性两个部分,这一举动在人工智能社区引发了广泛的讨论和争议。这一转变的核心在于,OpenAI最初以非营利性研究实验室起家,如今却寻求通过营利性结构来扩大其业务和影响力。这一举动的背后,既有对资金需求的考量,也引发了关于人工智能发展方向的深刻反思。
马斯克诉讼获支持
此前,特斯拉CEO埃隆·马斯克已于11月对OpenAI提起联邦诉讼,试图通过初步禁令阻止其转型。马斯克的诉讼理由是,OpenAI此举违背了其最初的慈善使命,并且通过反竞争手段剥夺竞争对手的资本。现在,这一诉讼得到了更多人的支持,其中包括被誉为“AI教父”的诺贝尔奖得主Geoffrey Hinton。Hinton的加入无疑为这场诉讼增添了重要的砝码,也使得人们更加关注OpenAI的转型是否真的符合其最初的承诺。
Geoffrey Hinton的立场
Geoffrey Hinton因其在人工神经网络领域的贡献而备受尊敬,他不仅是图灵奖得主,还在2024年荣获诺贝尔物理学奖。Hinton公开表示支持阻止OpenAI转型的诉讼,认为此举违背了OpenAI最初的安全承诺。Hinton的立场尤其值得关注,因为他不仅是人工智能领域的权威,也长期以来对人工智能的潜在风险保持着高度警惕。他认为,OpenAI的转型将会导致其更加关注商业利益,而忽视人工智能的安全问题,这对于整个人类社会而言都是一个潜在的威胁。
Encode组织加入诉讼
青年倡导组织Encode也提交了法庭之友陈述,支持马斯克的诉讼。Encode曾参与加州人工智能安全立法,他们认为OpenAI的营利性转型将破坏其以安全和公共利益为导向的使命。Encode的加入,代表了年轻一代对于人工智能发展方向的担忧,也反映了社会各界对于人工智能安全问题的普遍关注。
Encode的观点
Encode认为,OpenAI将人工智能的利润内部化,却将风险外部化给全人类。他们强调,如果世界正处于通用人工智能的新时代,那么这项技术应该由一个受法律约束、优先考虑安全和公共利益的公共慈善机构控制,而不是由一个专注于为少数投资者创造财务回报的组织控制。Encode的观点直指OpenAI转型的核心问题:在追求商业利益的同时,是否会牺牲人工智能的安全性和公共利益?这一问题不仅仅是OpenAI所面临的挑战,也是整个人工智能行业需要共同思考的问题。
法律挑战的核心
Encode的律师指出,OpenAI的非营利组织曾承诺停止与任何“价值一致、具有安全意识的项目”竞争。然而,一旦转型为营利性组织,情况将大不相同。此外,重组完成后,非营利组织的董事会将无法再根据安全需要取消投资者的股权。这意味着,OpenAI将不再受到非营利组织的安全约束,而是更加倾向于追求商业利益,这对于人工智能的安全发展而言,无疑是一个巨大的隐患。
- 非营利承诺的失效: OpenAI最初的非营利承诺,是其吸引人才和投资的重要基础。然而,随着转型的推进,这一承诺正在逐渐失效。
- 安全约束的缺失: 一旦转型为营利性组织,OpenAI将不再受到非营利组织的安全约束,这可能会导致其更加关注商业利益,而忽视人工智能的安全问题。
- 董事会控制权的丧失: 重组完成后,非营利组织的董事会将无法再根据安全需要取消投资者的股权,这使得OpenAI的安全问题更加难以得到有效控制。
人才流失与安全担忧
OpenAI近期出现高级人才流失,部分原因是员工担心公司为了商业利益而牺牲安全。前政策研究员Miles Brundage认为,OpenAI的非营利部分可能会沦为“副业”,而营利部分则会像“正常公司”一样运营,潜在的安全问题无法得到解决。人才流失是OpenAI转型过程中面临的另一个重要挑战,它不仅会影响OpenAI的研发能力,也会让人们更加担忧其是否真的能够保证人工智能的安全发展。
- 人才流失的原因: 员工担心公司为了商业利益而牺牲安全,这是导致人才流失的主要原因。
- 非营利部分边缘化: OpenAI的非营利部分可能会沦为“副业”,而营利部分则会成为主导,这使得人工智能的安全问题更加难以得到有效解决。
- 潜在的安全问题: 在商业利益的驱动下,OpenAI可能会忽视人工智能的潜在安全问题,这对于整个人类社会而言都是一个巨大的风险。
公共利益的考量
Encode认为,OpenAI所宣扬的对人类的责任将不复存在,因为特拉华州法律明确规定,公共利益公司的董事对公众不承担任何责任。他们认为,一个以安全为中心、任务受限的非营利组织将控制权交给一个对安全没有可执行承诺的营利性企业,将损害公共利益。Encode的担忧并非空穴来风,他们从法律的角度分析了OpenAI转型可能带来的潜在风险,也再次强调了人工智能发展过程中,公共利益的重要性。
- 公共利益公司的责任: 特拉华州法律明确规定,公共利益公司的董事对公众不承担任何责任,这使得OpenAI的公共责任变得难以保证。
- 非营利组织失去控制权: 非营利组织将控制权交给一个对安全没有可执行承诺的营利性企业,这使得人工智能的安全问题更加难以得到有效控制。
- 公共利益的损害: OpenAI的转型可能会损害公共利益,这对于整个人类社会而言都是一个巨大的损失。
听证会安排
关于初步禁令的听证会定于2025年1月14日在美国地区法官Yvonne Gonzalez Rogers处进行。这次听证会的结果将直接影响OpenAI的转型进程,也将对人工智能的发展方向产生重要的影响。
OpenAI的历史与转型
OpenAI于2015年作为非营利研究实验室成立。最初,OpenAI的使命是推动人工智能的民主化,确保人工智能的利益能够为全人类所共享。然而,随着人工智能技术的快速发展,OpenAI也面临着巨大的资金压力。
随着实验进程的加快,公司变得越来越资本密集,开始接受外部投资。为了应对日益增长的资金需求,OpenAI不得不寻求外部投资,这也为其后来的转型埋下了伏笔。
2019年,OpenAI转型为具有混合结构的初创公司,由非营利组织控制营利性机构。这一转变标志着OpenAI开始向商业化方向发展,也引发了关于其是否能够保持最初使命的争议。
近期,OpenAI计划将其营利性公司转变为特拉华州公共利益公司 (PBC),并发行普通股。这一举动意味着OpenAI将更加彻底地拥抱商业化,但也引发了更多的担忧。
非营利组织部分将保留,但将放弃控制权以换取PBC的股份。这一举动使得非营利组织在OpenAI的未来发展中,将不再具有决定性的影响力,这也引发了人们对其是否能够继续履行最初使命的担忧。
马斯克的指责
马斯克指责OpenAI放弃了其最初的慈善使命,即让所有人都能获得人工智能研究成果,并通过反竞争手段剥夺竞争对手的资本。马斯克的指责直指OpenAI转型的核心问题:在追求商业利益的同时,是否会牺牲人工智能的公共利益?
OpenAI的回应
OpenAI称马斯克的抱怨“毫无根据”,只是“吃不到葡萄说葡萄酸”而已。OpenAI的回应并没有正面回答马斯克的指责,也未能消除人们对于其转型可能带来的担忧。
OpenAI的转型,不仅仅是一个商业决策,更是一个关于人工智能发展方向的重大抉择。它引发了人们对于人工智能安全、公共利益、商业道德等方面的深刻思考,也提醒我们,在追求技术进步的同时,不能忽视其可能带来的潜在风险。