头条资讯网_今日热点_娱乐才是你关心的时事

今日热点 时事资讯
娱乐头条才是你关心的新闻
首页 > 头条资讯 > 科技

首届大模型顶会COLM高分论文:偏好搜索算法让大模型评估更高效

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

文章作者皆为来自剑桥大学语言技术实验室,一作为三年级博士生刘胤宏,导师为教授NigelCollier和EhsanShareghi。他的研究兴趣是大模型和文本评估,数据生成等。共同一作为二年级博士生周涵,导师为教授AnnaKorhonen和IvanVulić,他的研究兴趣是高效大模型。

大模型展现出了卓越的指令跟从和任务泛化的能力,这种独特的能力源自LLMs在训练中使用了指令跟随数据以及人类反馈强化学习(RLHF)。在RLHF训练范式中,奖励模型根据排名比较数据与人类偏好对齐。这增强了LLMs与人类价值观的对齐,从而生成更好地帮助人类并遵守人类价值观的回应。

近日,第一届大模型顶会COLM刚刚公布接收结果,其中一项高分工作分析了LLM作为文本评估器时难以避免和纠正的分数偏见问题,并提出了将评估问题转换成偏好排序问题,从而设计了PairS算法,一个可以从成对偏好(pairwisepreference)中搜索和排序的算法。通过利用不确定性和LLM传递性(transitivity)的假设,PairS可以给出高效,准确的偏好排序,并在多个测试集上展现出和人类判断更高的一致性。

论文链接:https://arxiv.org/abs/2403.16950

论文标题:AligningwithHumanJudgement:TheRoleofPairwisePreferenceinLargeLanguageModelEvaluators

Github地址:https://github.com/cambridgeltl/PairS

用大模型评估有什么问题?

最近大量的工作展示了LLMs在评估文本质量上的出色表现,形成了一种无需参考的生成任务评估新范式,避免了昂贵的人类标注成本。然而,LLM评估器(evaluator)对提示(prompt)设计高度敏感,甚至会受到多种偏见的影响,包括位置偏见、冗长偏见和上下文偏见。这些偏见阻碍了LLM评估器的公平和可信,导致与人类判断的不一致和不对齐。

为了减少LLMs的偏见预测,之前的工作开发了校准技术(calibration)以减少LLM预测中的偏见。我们先对校准技术在对齐单点(pointwise)LLM评估器的有效性进行了系统分析。如上图2所示,即使提供了监督数据,现有的校准方法仍然不能很好的对齐LLM评估器。

如公式1所示,我们认为评估不对齐的主要原因并非LLM评估分数分布的先验具有偏见(biasedpriorsoverevaluationscoredistribution),而是评估标准(evaluationstandard)的错位,即LLM评估器的似然(likelihood)。我们认为做成对(pairwise)评估时,LLM评估器会与人类有更一致的评价标准,因此,我们探索了一种新的LLM评估范式,以促进更对齐的判断。

RLHF带来的启发

如下图1所示,受到RLHF中通过偏好数据对奖励模型进行对齐的启发,我们认为LLM评估器可以通过生成偏好排序(preferenceranking)来得到更和人类对齐的预测。最近已有一些工作开始通过让LLM进行成对比较(pairwisecomparison)来得到偏好排序。然而,评估偏好排序的复杂性和可扩展性在很大程度上被忽视了。它们忽略了传递性假设(transitivityassumption),使得比较次数的复杂度为O(N^2),让评估过程变得昂贵而不可行。

PairS:高效偏好搜索算法

在本工作中,我们提出了两种成对偏好搜索算法(PairS-greedy和PairS-beam)。PairS-greedy是基于完全的传递性假设和合并排序(mergesort)的算法,只需要通过O(NlogN)的复杂度就可以得到全局的偏好排序。传递性假设是指,比如对于3个候选项,LLM总是有如果A≻B以及B≻C,则A≻C。在这个假设下我们可以直接用传统的排序算法从成对偏好中获得偏好排序。

但是LLM并不具有完美的传递性,所以我们又设计了PairS-beam算法。在更宽松传递性假设下,我们推导并化简了偏好排序的似然函数(likelihoodfunction)。PairS-beam在合并排序算法的每一次的合并操作(mergeoperation)中按似然值做集束搜索,并通过偏好的不确定性(uncertainty)来减枝成对比较的空间的搜索方法。PairS-beam可以调整对比复杂度和排序质量,高效的给出偏好排序的最大似然估计(MLE)。在下图3中我们展示了一个PairS-beam如何做合并操作的例子。

实验结果

我们在多个具有代表性的数据集上进行了测试,包括闭合式生成的缩写任务NewsRoom和SummEval,和开放式的故事生成任务HANNA,并对比了多个LLM单点评估的基线方法,包括无监督的directscoring,G-Eval,GPTScore和有监督训练过的UniEval以及BARTScore。如下表1所示,PairS在每个任务上和他们相比都有着和人类评分更高的一致性。GPT-4-turbo更是能达到SOTA的效果。

在文章中,我们还对比了两种偏好排序的基线方法,winrate和ELOrating。PairS可以仅用约30%的对比次数就能达到他们同样质量的偏好排序。论文还提供了更多关于如何使用成对偏好来量化计算LLM评估器的传递性,以及成对评估器如何在校准中受益的见解。

更多研究细节,可参考原论文。

未经允许不得转载:头条资讯网_今日热点_娱乐才是你关心的时事 » 首届大模型顶会COLM高分论文:偏好搜索算法让大模型评估更高效

分享到:更多 ()
来源:机器之心Pro 编辑:科技

评论

留言/评论 共有条点评
昵称:
验证码:
匿名发表