返回列表 发布新帖

OpenAI 机器人负责人辞职,军事化合作引发伦理争议

6 0
发表于 4 天前 | 查看全部 阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
近日,OpenAI 硬件与机器人工程负责人凯特琳・卡利诺夫斯基的辞职消息,让 AI 行业陷入对技术伦理的热议。这位曾任职于苹果、Meta 的行业老兵,入职 OpenAI 不到半年便果断离开,核心原因直指公司与美国国防部的军事化合作 —— 在缺乏明确安全约束的情况下,这项合作可能触及 “无人类授权的致命决策”“未经监督的国内监控” 两条伦理红线。
事件的导火索是 OpenAI 2 月底与五角大楼达成的协议,允许美军在机密网络中使用其 AI 模型。这一决定引发连锁反应:ChatGPT 单日卸载量激增近 3 倍,超过 250 万网友参与 “数字抵制”,而坚持伦理底线、拒绝类似合作的竞品则逆势登顶下载榜。尽管 OpenAI 随后致歉并承诺划定 “不用于自主武器、不涉及国内监控” 的红线,但 “故意” 等模糊措辞被质疑存在漏洞,难以真正约束技术滥用风险。
更值得警惕的是,AI 军事化已出现现实隐患。此前加沙冲突中,某 AI 打击系统因 10% 的错误率,导致数千名平民被误判为目标,印证了 “机器决定生死” 的可怕后果。而此次合作中,OpenAI 尚未建立完善的司法监督和人类授权机制,让技术沦为军事工具的风险陡增。这也暴露了行业普遍困境:当商业利益与伦理底线碰撞,AI 企业该如何坚守 “技术向善”?
中国早已在联合国框架下倡导规范 AI 军事应用,主张 “人类最终负责”“禁止自主致命武器” 的底线原则。此次辞职事件再次提醒:AI 技术越是强大,越需要装上 “伦理之鞘”。无论是企业自主划定红线,还是国际社会建立统一规则,只有守住 “人控” 核心,才能避免技术跑偏成为全球安全隐患。


回复

举报

回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

头条资讯换一批
扫一扫访问小程序
获取最新资讯
关灯 在本版发帖
扫一扫添加微信客服
返回顶部
快速回复 返回顶部 返回列表