您好,欢迎访问开云网站!
您好,欢迎访问开云网站!
集团动态
联系开云
发布日期:2024-08-04 作者:开云
《天然-人类行动》5月20日颁发的一篇论文显示,在测试追踪他人心理状况能力——也趁心智理论——的使命中,两类年夜说话模子(LLM)在特定环境下的表示与人类类似,乃至更好。
心智理论对人类社交互动十分主要,是人类沟通交换和发生共识的要害。之前的研究注解,像年夜说话模子这类人工智能可以解决复杂的认知使命,如多选决议计划。不外,研究人员一向不清晰LLM在心智理论使命——被认为是人类独有的能力——中的表示是不是也能比肩人类。
在这项新研究中,德国汉堡-埃彭多夫年夜学医学中间的James Strachan和同事选择了能测试心理理论分歧方面的使命,包罗发现毛病设法、理解间接言语和辨认掉礼。
研究人员随后比力了1907人与两个热点LLM家族(由美国OpenAI公司开辟的GPT模子和由美国Meta公司开辟的LLaMA2模子)完成使命的能力。
他们发现,GPT模子在辨认间接要求、毛病设法和误导表示等方面能到达、有时乃至超出人类平均程度,而LLaMA2的表示则逊在人类程度。在辨认掉礼方面,LLaMA2强在人类但GPT表示欠安。
Strachan和同事指出,LLaMA2的成功被证实是由于回覆的成见水平较低而不是由于真的对掉礼敏感,而GPT看起来的掉利实际上是由于对结论的守旧立场而不是推理毛病。
研究人员提示道,LLM在心智理论使命上的表示堪比人类不等在它们具有人类般的能力,也不料味着它们能把握心智理论。但他们也指出,这些成开云体育app果是将来研究的主要根本,并建议进一步研究LLM在心理揣度上的表示会若何影响个别在人机交互中的认知。
相干论文信息:https://doi.org/10.1038/s41562-024-01882-z
版权声明:凡本网注明“来历:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来历和作者,且不得对内容作本色性改动;微信公家号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。