12月25日消息,OpenAI发公告,将成立专门的技术团队来监督 AI 的安全性,监督技术工作、检查大模型的能力限制、进行安全评估并向公司领导层和董事会提交报告,董事会可以有权阻止新 AI 模型发布。OpenAI将评估前沿模型并为模型在网络安全、生物化学威胁、信仰和模型自助等四个评价维度打分,只有中等威胁或以下的模型才能发布。
24小时热榜