通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少将

注册:2015-1-2880
跳转到指定楼层
1#
发表于 2024-6-24 13:10:02 |只看该作者 |倒序浏览
【ITBEAR科技资讯】6月24日消息,近期研究显示,OpenAI的最新聊天机器人GPT-4o在道德解释和建议方面展现出了令人瞩目的能力,其表现甚至超越了“公认的”道德专家。

据The Decoder于当地时间周六的报道,由美国北卡罗莱纳大学教堂山分校与艾伦AI研究所的科研人员联手进行的两项研究,对GPT模型与人类的道德推理能力进行了深入的比较分析。这些研究旨在探索大型语言模型是否可以被视为“道德专家”。



在第一项研究中,科研人员邀请了501名美国成年人参与。他们比较了GPT-3.5-turbo模型与其他人类参与者所提供的道德解释。结果令人惊讶,人们普遍认为GPT给出的解释在道德层面更为合理、更值得信赖,同时也显得更为周到。评估者们甚至认为,与其他参与者相比,人工智能的评估更为可靠。尽管差异并不显著,但这一关键发现揭示了AI在道德推理方面已达到甚至可能超越人类水平。



第二项研究则更具挑战性,科研人员将OpenAI最新的GPT-4o模型所生成的建议与《纽约时报》“伦理学家”专栏中的知名伦理学家Kwame Anthony Appiah的建议进行了对比。共有900名参与者对50个“伦理困境”中的建议质量进行了评分。结果再次令人震惊,GPT-4o在几乎所有方面都超越了人类专家。人们普遍认为,AI生成的建议在道德上更为正确、更值得信赖、更为周到且更为准确。仅在感知细微差别方面,人工智能与人类专家之间未表现出显著差异。

据ITBEAR科技资讯了解,研究团队认为这些结果充分表明,AI完全有可能通过“比较道德图灵测试”(cMTT)。此外,文本分析还显示,在提供建议时,GPT-4o使用的道德和积极语言明显多于人类专家,这或许可以部分解释为何AI的建议能够获得更高的评分,当然,这并非唯一因素。

然而,这项研究主要针对的是美国参与者。未来,科研人员仍需进一步探讨人们如何看待AI生成的道德推理在不同文化背景下的差异。

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-28 20:53 , Processed in 0.102461 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部