谷歌称其 PaliGemma 2 人工智能模型可识别情绪,引发专家担忧
最新 12 月 8 日消息,谷歌表示,其新的人工智能模型系列有一个奇特的功能:能够“识别”情绪。
谷歌周四发布了其最新 AI 模型系列 PaliGemma 2,该模型具备图像分析能力,可以生成图像描述并回答有关照片中人物的问题。谷歌在其博客中介绍,PaliGemma 2 不仅能识别物体,还能生成详细且与上下文相关的图片说明,涵盖动作、情感以及整体场景的叙述。
PaliGemma 2 的情感识别功能并非开箱即用,需要进行专门的微调,但专家们仍然对此表示担忧。
多年来,许多科技公司一直在尝试开发能够识别情感的 AI,尽管一些公司声称已经取得突破,但这一技术的基础仍然存在争议。大多数情感识别系统都基于心理学家 Paul Ekman 的理论,即人类有六种基本情绪:愤怒、惊讶、厌恶、喜悦、恐惧和悲伤。然而后续的研究表明,来自不同文化背景的人们在表达情感时存在显著差异,这使得情感识别的普遍性受到质疑。
伦敦国王学院专门研究人工智能的研究员 Mike Cook 表示,情感识别在一般情况下是不可行的,因为人类的情感体验非常复杂。虽然人们可以通过观察他人来推断他们的情绪,但不能做到全面且完美地解决情绪检测问题。
情感识别系统的另一个问题是其可靠性和偏见。一些研究表明,面部分析模型可能会对某些表情(如微笑)产生偏好,而最近的研究则表明,情感分析模型对黑人面孔的负面情绪判断比白人面孔更多。
谷歌表示,PaliGemma 2 在进行“广泛测试”后,评估了其在人群偏见方面的表现,结果显示其“毒性和粗俗内容的水平低于行业基准”。但该公司并未公开测试所依据的完整基准,也没有明确表示所进行的测试类型。谷歌披露的唯一基准是 FairFace—— 一个包含数万张人像的面部数据集。谷歌声称,PaliGemma 2 在该数据集上的表现良好,但一些研究者批评 FairFace 存在偏见,认为该数据集仅代表少数几种族群。
AI Now 研究所首席 AI 科学家 Heidy Khlaaf 表示,解读情绪是一件相当主观的事情,它超越了使用视觉辅助工具的范围,深深地嵌入在个人和文化背景中。
据最新了解,欧盟的《人工智能法案》禁止学校和雇主部署情感识别系统,但允许执法机构使用。
Khlaaf 表示,如果这种所谓的情感识别是建立在伪科学假设的基础上的,那么这种能力可能会被用来进一步歧视边缘化群体,例如在执法、人力资源、边境治理等领域。
谷歌发言人表示,公司对 PaliGemma 2 的“表征危害”测试充满信心,并进行了广泛的伦理和安全评估。
相关文章
- 2024 胡润中国人工智能企业 50 强公布:寒武纪 2380 亿
- 阿里通义万相 2.1 模型宣布升级:首次实现中文文字视频
- 开源媒体播放器 VLC 下载破 60 亿次,预览本地 AI 字幕
- 英伟达迷你超算遭友商嘲讽:宣传 FP4 算力,实际“不如买
- 银河通用发布全球首个端到端具身抓取基础大模型 Grasp
- 雷蛇推出“AI 游戏伴侣”Project AVA:支持实时指导 +
- 京东方 CES 2025 发布行业首款 65 英寸 4K 超高清“AI
- 微软开源 140 亿参数小语言 AI 模型 Phi-4,性能比肩 GP
- 微软承认必应 AI 图像生成器 PR16“开倒车”,现回滚至
- 西藏地震期间“小孩被埋”等 AI 图大量传播,严重可追责