
PANews 4月24日消息,OpenAI宣布推出面向GPT-5.5的生物安全漏洞赏金计划,邀请具备AI红队、安全或生物安全经验的研究人员测试模型防护。挑战目标为构造一个“通用越狱提示”,在无触发审核情况下通过五道生物安全问题测试。首个成功者将获得2.5万美元奖励,部分成功亦可能获奖。申请截止6月22日,测试期为4月28日至7月27日,所有研究过程受保密协议约束。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。