通信人家园
标题:
谷歌新模型能识别人类情绪了!但不少人开始担心
[查看完整版帖子]
[打印本页]
时间:
2024-12-7 15:23
作者:
tayun
标题:
谷歌新模型能识别人类情绪了!但不少人开始担心
智东西(公众号:zhidxcom)
编译 | 汪越
编辑 | 漠影
智东西12月6日消息,据TechCrunch报道,谷歌昨日发布了新一代AI模型PaliGemma 2,并宣称该模型具有情感识别的能力。谷歌表示,PaliGemma 2不仅能够分析图像并生成详细的图片描述,还能识别图像中人物的情感状态。
据TechCrunch报道,要实现这一情感识别技术,PaliGemma 2需要进行进一步的微调。即便如此,这项技术仍然引起了专家们的广泛关注与担忧。
多年来,初创公司和科技巨头纷纷尝试开发可检测情感的AI技术,以应用于销售培训、预防事故等领域。谷歌表示,PaliGemma 2已进行广泛测试,评估了该模型在人群偏见方面的表现,并声称该模型在“毒性和粗俗程度”方面优于行业基准。
然而,谷歌并未公开其所使用的完整测试基准,也未明确披露具体的测试类型。唯一公开的基准是FairFace,一个包含数万张人头照的数据集。谷歌称PaliGemma 2在该基准测试中的表现良好,但一些研究人员对FairFace作为偏见衡量标准提出了质疑,指出该数据集仅代表少数几个人种。
情感识别技术普遍面临不可靠性和偏见的问题。以面部分析为例,2020年MIT的研究表明,现有的面部分析系统往往偏好某些面部表情(如微笑)。最新研究还发现,部分情感分析模型倾向于将黑人面部的情感解读为负面情感,而对白人面部则较为正面。
对于谷歌公开发布PaliGemma 2,专家们主要关注其潜在的滥用风险。情感识别AI若应用于执法、招聘、边境管理等高风险领域,可能导致对边缘群体的歧视,甚至使人们的情感状态被错误解读,从而引发不公平待遇。
针对外界的担忧,谷歌回应称,已对PaliGemma 2的伦理性和安全性进行了全面评估,涵盖了儿童安全、内容安全等多个方面。谷歌发言人说,公司在发布PaliGemma 2之前已进行了严格的测试,并承诺对模型的“代表性危害”进行了充分评估。
结语:谷歌需平衡情感识别AI技术发展
目前,情感识别AI的局限性依然明显,无法全面解决情感表达的复杂性。单纯的测试和评估无法完全消除该技术潜在的问题。
谷歌的PaliGemma 2在图像分析和情感识别方面展示了技术创新,但负责任的创新应当从产品开发初期就全面考虑其可能带来的社会影响,并在整个产品生命周期内持续进行评估。
这让人联想到士郎正宗创作的动画《心理测量者》(Psycho-Pass)。这部作品设定在一个未来社会,政府通过“心理测量”技术监控市民的心理状态和犯罪倾向,以预测并干预可能的犯罪行为。警察配备了一种名为“执法者”的设备,用于实时分析个人的心理状况;一旦系统检测到高犯罪风险,便会依据个体的心理波动采取行动,包括麻醉或更极端的措施。
随着AI技术的发展,这样的科幻场景正逐渐接近现实。如何防止技术滥用,确保其公正性和可靠性,已成为AI行业亟需解决的核心问题。
来源:TechCrunch
来源:智东西
时间:
2024-12-7 15:49
作者:
Area_Code_61706
担心是对的
通信人家园 (https://test.txrjy.com/)
Powered by C114