摘要: OpenAI日前宣布成立一支专门团队,旨在跟踪、评估和应对AI引发的潜在“灾难性风险”,包括核威胁、化学、生物和放射性威胁,以及AI自我复制等风险。该团队还将制定“风险知情的开发政策”,以规范评估和监控AI模型的措施。OpenAI首席执行官Sam Altman曾强调AI潜在引发灾难的风险,呼吁全球共同应对此问题。
OpenAI最近宣布成立了一支全新团队,其使命是追踪、评估以及防范由人工智能(AI)引发的“灾难性风险”。在周四的一次更新中,OpenAI表示该团队将专注于多个关键问题,旨在确保AI技术的安全和可持续发展。
这支专门团队的首要任务是关注核威胁,以减轻与核武器和核能技术相关的潜在风险。此外,他们还将努力应对化学、生物和放射性威胁,这些也被认为是可能由AI引发的灾难性事件。
另一个重点是“自主复制”,这指的是AI模型可能通过自我复制或自我修改的行为导致不可控的后果。OpenAI的新团队将评估和应对这种潜在风险,以确保AI系统不会滥用其自主性。
此外,该团队还将关注AI的欺骗能力,以及双络安全威胁,这涉及到网络安全和AI系统的相互影响。他们将努力识别和缓解这些风险。
OpenAI还计划制定和维护“风险知情的开发政策”,该政策将详细规定公司正在采取的评估和监控AI模型的措施。这将有助于确保开发过程中考虑到了潜在的“灾难性风险”,并采取适当的预防措施。
OpenAI首席执行官Sam Altman曾多次警告AI技术可能引发灾难性事件。今年5月,他与其他知名AI研究人员一同发表了一份声明,呼吁将“减轻AI灭绝的风险”列为全球的首要任务。这一最新举措表明OpenAI积极应对这一问题,确保AI的发展是安全和可控的。
想了解更多人工智能知识,请关注AI空间。