随着 OpenAI 吸引新的投资,平衡利润和目标变得越来越具有挑战性
OpenAI 是一家人工智能公司,开发了流行的 ChatGPT 聊天机器人和文本转艺术程序 Dall-E,现在正处于十字路口。2024年 10 月 2 日,该公司宣布已从投资者那里获得 66 亿美元的新资金,该业务价值估计为 1570 亿美元——使其成为有史以来第二家估值超过 1000 亿美元的初创公司。与其他大型科技公司不同,OpenAI 是一家非营利组织,拥有一家营利性子公司,由非营利性董事会监督。自 2015 年成立以来,OpenAI 的官方使命一直是“打造安全且造福全人类的通用人工智能(AGI)”。
到 2024 年 9 月底,美联社、路透社、华尔街日报等多家媒体报道称,OpenAI 计划放弃非营利性地位,成为一家由投资者管理的营利性科技公司。这些报道均引用了匿名消息来源。《纽约时报》援引最近一轮融资的文件报道称,除非这一变化在两年内发生,否则 66 亿美元的股权将成为欠提供这笔资金的投资者的债务。
《对话美国》邀请塔夫茨大学管理学学者Alnoor Ebrahim解释为何 OpenAI 领导人所报告的改变其结构的计划具有重大意义且可能带来问题。
其高管和董事会成员如何回应?
OpenAI 的领导层动荡不断。2023 年 11 月,分歧达到顶点,董事会一度罢免了首席执行官 Sam Altman。不到一周,他就重返工作岗位,随后三名董事会成员辞职。离职董事主张建立更强有力的护栏,鼓励制定监管措施,保护人类免受人工智能可能带来的危害。
此后,已有十多名高级职员离职,其中包括其他几位负责监督 OpenAI 安全政策和实践的联合创始人和高管。其中至少有两人加入了竞争对手 Anthropic,该公司由一位负责 AI 安全的前 OpenAI 高管创立。一些离职高管表示,Altman 促使公司过早推出产品。
OpenAI 前安全团队负责人 Jan Leike表示,安全性“已经让位于闪亮的产品” ,他于 2024 年 5 月辞职。
OpenAI 的结构为什么会发生改变?
OpenAI 的资金雄厚的投资者在现有的非营利性治理结构下无法持有该组织的股份,也无法在其董事会中占有一席之地。这是因为 OpenAI 是一家非营利组织,其宗旨是造福社会,而不是私人利益。到目前为止,所有投资,包括据报道微软的 130 亿美元,都是通过该非营利组织旗下的营利性子公司进行的。
当前的结构允许OpenAI 接受私人投资者的资金,以换取其未来利润的一部分。但这些投资者在董事会中没有投票权,他们的利润受到“限制”。根据之前公开的信息,OpenAI 的原始投资者不能赚到超过他们提供的资金的 100 倍。这种混合治理模式的目标是平衡利润和 OpenAI 以安全为中心的使命。
成为一家营利性企业将使其投资者能够获得 OpenAI 的所有权股份,并且不再需要面临潜在利润上限。未来,OpenAI 还可以上市并在股票市场上筹集资金。
据彭博社援引未具名消息人士的话称,奥特曼个人寻求收购OpenAI 7% 的股权。
根据非营利组织董事会成员和高管协会 BoardSource 的说法,这种安排不适用于非营利组织高管。该协会解释说,非营利组织“必须将盈余重新投资于组织及其免税目的。”
OpenAI 可能会成为什么样的公司?
《华盛顿邮报》等媒体也援引未具名消息人士的话说,OpenAI 可能会成为一家“公益公司”,即旨在造福社会并赚取利润的企业。
拥有此地位的企业被称为 B 类公司,包括户外服装和装备公司 Patagonia 和眼镜制造商Warby Parker。
根据制定标准并为 B 类公司提供认证的网络 B Lab 的说法,营利性企业(而非非营利组织)成为公益性公司的情况更为常见。非营利组织这样做并不常见,因为非营利组织治理已经要求这些团体为社会谋福利。
具有这种法律地位的公司董事会可以自由考虑社会、环境和非股东的利益,但这并不是必须的。董事会仍然可以选择将利润放在首位,并可以放弃其福利地位以满足投资者的需求。这就是在线工艺品市场Etsy 在成为上市公司两年后于 2017 年所做的。
在我看来,任何试图将非营利组织转变为公益公司的尝试都明显偏离了非营利组织的使命。而且,转变为公益公司也存在风险,因为这可能只是一种掩饰其转向关注收入增长和投资者利润的策略。
许多法律学者和其他专家预测,由于法律对将非营利资产置于私人手中的限制, OpenAI不会完全放弃其混合所有权模式。
但我认为 OpenAI 有一个可能的解决方法:它可以尝试通过让非营利组织成为新营利结构中的少数股东来削弱非营利组织的控制权。这将有效地消除非营利组织董事会要求公司承担责任的权力。此举可能会导致相关州检察长办公室和美国国税局展开调查。
如果 OpenAI 转变为一家营利性公司,会发生什么?
社会面临的风险很高。
人工智能的潜在危害是广泛的,有些已经显现,例如欺骗性的政治运动和医疗保健中的偏见。
如果行业领导者 OpenAI 开始更多地关注赚取利润而不是确保 AI 的安全,我相信这些危险可能会变得更糟。因人工智能研究而获得 2024 年诺贝尔物理学奖的杰弗里·辛顿 (Geoffrey Hinton)警告说,人工智能可能会通过取代“大量平凡的工作”而加剧不平等。他认为,有 50% 的可能性“我们将不得不面对人工智能试图接管”人类的问题。
即使 OpenAI 确实保留了以安全为首要考虑的董事会成员,其新公司董事会成员的唯一共同点就是他们有义务保护公司股东的利益,因为股东希望获得利润。虽然这种期望在营利性董事会中很常见,但在非营利性董事会中,它们构成了利益冲突,因为非营利性董事会必须把使命放在第一位,董事会成员不能从组织的工作中获得经济利益。
毫无疑问,这种安排会让 OpenAI 的投资者感到满意。但这对社会有好处吗?非营利组织控制营利性子公司的目的是确保利润不会干扰非营利组织的使命。如果没有护栏来确保董事会寻求限制人工智能对人类的危害,那么它就没有理由阻止公司实现利润最大化,即使它的聊天机器人和其他人工智能产品危害社会。
不管 OpenAI 做什么,大多数人工智能公司已经是盈利性企业了。因此,在我看来,管理潜在危害的唯一方法是通过正在开始形成的更好的行业标准和法规。
加州州长于 2024 年 9 月否决了这项法案,理由是它会减缓创新——但我认为,考虑到人工智能已经给社会带来的危险,减缓创新正是我们所需要的。
页:
[1]