您好,欢迎访问开云网站!
您好,欢迎访问开云网站!
集团动态
联系开云
发布日期:2024-06-22 作者:开云
6月18日,《天然》颁发的一项研究报导了一种能检测年夜说话模子(LLM)幻觉(hallucination)的方式,该方式能检测生成回覆的寄义的不肯定性,或能用在晋升LLM输出的靠得住性。
LLM(如ChatGPT和Gemini)是能浏览和生成人类天然说话的人工智能系统。不外,这类系统很轻易发生幻觉,生成禁绝确或没成心义的内容,即“一本正经地乱说八道”。不外,检开云体育app测LLM呈现幻觉的水平很难,由于这些回覆的显现体例可能会让它们看起来很可托。
来自英国牛津年夜学的Sebastian Farquhar和同事测验考试量化一个LLM发生幻觉的水平,进而判定生成的内容有多“忠在”供给的源内容。他们的方式能检测“编造”(confabulation)——这是“幻觉”的一个子种别,特指禁绝确和随便的内容,常呈现在LLM缺少某类常识的环境下。这类方式斟酌了说话的奥妙不同,和回覆若何能以分歧的体例表达,从而具有分歧的寄义。他们的研究注解,这一方式能在LLM生成的小我简介,和关在杂事、常识和生命科学这类话题的回覆中辨认出“乱说八道”的内容。
不外,Sebastian Farquhar等人的研究方式,也离不开年夜模子这一得力东西。《天然》同时颁发的“新闻与不雅点”文章指出,该使命由一个年夜说话模子完成,并经由过程第三个年夜说话模子进行评价,相当在是“以毒攻毒”。
该文作者同时也在耽忧,用一个年夜模子评估一种基在年夜模子的方式“仿佛是在轮回论证,并且可能有误差”。不外,作者认为,他们的方式有望帮忙用户理解在哪些环境下利用LLM的回覆需要留意,也意味着可以提高LLM在利用场景中的置信度。
相干论文信息:https://www.nature.com/articles/s41586-024-07421-0
版权声明:凡本网注明“来历:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来历和作者,且不得对内容作本色性改动;微信公家号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。