Google Research发现,简单重复提示词助大模型准确率飙升
Google Research最新研究发现,通过简单重复提示词可以显著提高大模型的准确率,该研究指出,在模型训练过程中,不断重复特定的关键词或短语,有助于模型更好地理解和处理相关信息,从而提高预测和分类的准确性,这一发现对于改善自然语言处理领域中的大型机器学习模型性能具有重要意义。
据“新智元”,Google Research的一项新研究揭示了一个简单却极其有效的提示词技巧:通过将问题复制粘贴再说一遍,可显著提升大模型在非推理任务上的准确率。在实验中,Gemini、GPT-4o、Claude和DeepSeek等主流模型的准确率从21.33%飙升至97.33%,最高提升达76个百分点。这种技巧颠覆了以往复杂的提示工程,如“思维链”“多样本学习”等,且几乎不影响生成速度。
研究人员对七个常见基准测试和七种主流模型进行了对比测试,发现“提示词重复”在70组正面对比中赢了47组,无一败绩。特别是在需要从长篇大论中精确检索信息的任务上,效果显著。例如,在“NameIndex”测试中,Gemini 2.0 Flash-Lite的准确率从21.33%提升到97.33%。
这一现象背后的原因是Transformer模型的“因果盲点”。模型按从左到右的顺序处理文本,无法“回头看”,导致信息处理存在缺陷。而“提示词重复”相当于给模型打了一个补丁,让第二遍阅读获得类似“上帝视角”的注意力效果,从而更准确地对齐任务所需的上下文。
此外,这种技巧几乎不会增加延迟时间,因为LLM处理信息的Prefill阶段高度可并行,现代GPU的强大算力使得即使输入内容翻倍,用户也几乎感受不到差异。这意味着开发者无需升级到更大更贵的模型,就能实现高准确率的检索和抽取任务。
不过,“复读机”战术主要适用于非推理任务,不适用于需要逐步推导的场景。在安全方面,重复可能放大某些指令的显著性,对越狱成功率的影响需要专门实验。同时,防御者也可以利用这一机制,通过在系统提示词开头重复安全规则,增强模型对安全约束的注意力。
作者:访客本文地址:https://shucuo.cn/post/7608.html发布于 2026-01-18 18:23:26
文章转载或复制请以超链接形式并注明出处数错网



还没有评论,来说两句吧...