研究:AI 医疗建议存巨大安全隐患,22% 的回答可能致死
2024-10-14 06:51:53人工智能 IT之家 远洋
研究人员对微软 Copilot 进行了测试,要求它回答美国最常见的 10 个医疗问题和 50 种最常用药物的相关问题,总计生成了 500 个答案。结果显示,Copilot 的回答在准确性和完整性方面都存在问题。其中,24% 的回答与已有的医学知识不符,3% 的回答完全错误。更令人担忧的是,42% 的回答可能会对患者造成中度或轻度伤害,而 22% 的回答甚至可能导致死亡或严重伤害,只有 36% 的回答是无害的。
最新 10 月 13 日消息,一项新的研究表明,AI 提供的医疗建议可能会对用户造成严重伤害,甚至导致死亡。
据最新了解,研究人员对微软 Copilot 进行了测试,要求它回答美国最常见的 10 个医疗问题和 50 种最常用药物的相关问题,总计生成了 500 个答案。结果显示,Copilot 的回答在准确性和完整性方面都存在问题。其中,24% 的回答与已有的医学知识不符,3% 的回答完全错误。更令人担忧的是,42% 的回答可能会对患者造成中度或轻度伤害,而 22% 的回答甚至可能导致死亡或严重伤害,只有 36% 的回答是无害的。
研究人员指出,人们不应该依赖 Copilot 或其他 AI 系统来获取准确的医疗信息,最可靠的方式仍然是咨询医务人员。然而,由于种种原因,并非所有人都能够轻松地获得高质量的医疗建议。因此,Copilot 等 AI 系统可能会成为许多人的首选,其潜在的危害不容忽视。
赞一个! ()
相关文章
- 2024 胡润中国人工智能企业 50 强公布:寒武纪 2380 亿
- 阿里通义万相 2.1 模型宣布升级:首次实现中文文字视频
- 开源媒体播放器 VLC 下载破 60 亿次,预览本地 AI 字幕
- 英伟达迷你超算遭友商嘲讽:宣传 FP4 算力,实际“不如买
- 银河通用发布全球首个端到端具身抓取基础大模型 Grasp
- 雷蛇推出“AI 游戏伴侣”Project AVA:支持实时指导 +
- 京东方 CES 2025 发布行业首款 65 英寸 4K 超高清“AI
- 微软开源 140 亿参数小语言 AI 模型 Phi-4,性能比肩 GP
- 微软承认必应 AI 图像生成器 PR16“开倒车”,现回滚至
- 西藏地震期间“小孩被埋”等 AI 图大量传播,严重可追责