据 1M AI News 监测,Anthropic 在 LinkedIn 上发布职位「化学武器与高当量爆炸物政策经理」,要求申请人具备至少 5 年「化学武器和/或爆炸物防御」从业经验,并了解放射性散布装置(脏弹)。公司表示,此岗位旨在防止 Claude 被用于「灾难性滥用」,担心其 AI 工具可能被用于获取制造化学或放射性武器的信息,需要专家评估现有安全防护是否足够严密。Anthropic 称该职位与公司已在其他敏感领域设立的岗位性质相近。
OpenAI 也在招聘页面发布类似职位,方向为生物与化学风险研究员,年薪最高可达 45.5 万美元,近 Anthropic 该职位薪酬的两倍。对此,BBC 节目《AI Decoded》联合主持人、科技研究员 Stephanie Hare 博士提出质疑:「让 AI 系统处理敏感的化学品、爆炸物和放射性武器信息,真的安全吗?即使已指令 AI 不得使用这些信息。」她还指出,目前没有任何国际条约或法规对此类工作以及 AI 与此类武器的结合使用加以规范,「所有这一切都在公众视野之外进行」。