Meta 证实:Ray-Ban 眼镜拍摄的照片和视频会被用于训练 AI 模型
最新 10 月 7 日消息,据 TechCrunch 报道,Meta 公司证实,用户用 Ray-Ban Meta 智能眼镜拍摄的照片和视频可能会被用于训练其 AI 模型。
Meta 政策传播经理 Emil Vazquez 在一封电子邮件中表示:“在多模态 AI 可用的地区(目前为美国和加拿大),与 Meta AI 共享的图像和视频可能会被用于改进我们的 AI 模型,这符合我们的隐私政策。”
此前,Meta 一位发言人澄清称,只要用户不将照片和视频提交给 AI,这些数据就不会被用于训练 Meta 的 AI 模型。然而,一旦用户要求 Meta AI 分析这些照片,它们就会受到不同的政策约束。换句话说,唯一避免这种情况的方法是不使用 Meta 的多模态 AI 功能。
这一做法引发了人们的担忧,因为 Ray-Ban Meta 用户可能并不了解他们正在向 Meta 提供大量图像用于训练其 AI 模型,这些图像可能包含他们的家庭内部、亲人或个人文件等信息。
最新注意到,Meta 公司在上周的 2024 Connect 大会上宣布了一项新的 Ray-Ban Meta 实时视频分析功能,该功能实质上将连续的图像流发送到 Meta 的多模态 AI 模型。在一段宣传视频中 Meta 表示,用户可以使用该功能查看衣橱,用 AI 分析整个衣橱,并挑选出一套衣服。该公司没有提到的是,用户还在向 Meta 发送这些图像用于 AI 模型训练。
Meta 发言人称,其隐私政策明确规定:“与 AI 功能的交互可以用于训练 AI 模型。”该发言人还提到了 Meta AI 的服务条款,该条款规定,通过与 Meta AI 共享图像,“您同意 Meta 将使用 AI 分析这些图像,包括面部特征。”
在 Meta 的其他隐私政策中,还默认存储所有与 Ray-Ban Meta 进行语音对话的转录文件,以训练未来的 AI 模型。至于实际的语音录音,用户有一种方法可以选择退出。当用户首次登录 Ray-Ban Meta 应用程序时,可以选择是否允许使用语音录音来训练 Meta 的 AI 模型。
相关文章
- 2024 胡润中国人工智能企业 50 强公布:寒武纪 2380 亿
- 阿里通义万相 2.1 模型宣布升级:首次实现中文文字视频
- 开源媒体播放器 VLC 下载破 60 亿次,预览本地 AI 字幕
- 英伟达迷你超算遭友商嘲讽:宣传 FP4 算力,实际“不如买
- 银河通用发布全球首个端到端具身抓取基础大模型 Grasp
- 雷蛇推出“AI 游戏伴侣”Project AVA:支持实时指导 +
- 京东方 CES 2025 发布行业首款 65 英寸 4K 超高清“AI
- 微软开源 140 亿参数小语言 AI 模型 Phi-4,性能比肩 GP
- 微软承认必应 AI 图像生成器 PR16“开倒车”,现回滚至
- 西藏地震期间“小孩被埋”等 AI 图大量传播,严重可追责