大模型靠“深呼吸”数学再涨 8 分!谷歌 DeepMind 发现 AI 自己设计提示词效果胜人类

 人参与 | 时间:2024-03-29 05:11:28
提示词中加上“深呼吸”,深呼吸AI 大模型数学成绩就能再涨 8.4 分!大模

谷歌 DeepMind 团队最新发现,型靠现A效果修真界的垃圾佬用这个新“咒语”(Take a deep breath)结合大家已经熟悉的数学示词胜人“一步一步地想”(Let’s think step by step),大模型在 GSM8K 数据集上的再涨I自成绩就从 71.8 提高到 80.2 分。

而且这个最有效的分谷提示词,是己设计提 AI 自己找出来的。

有网友开玩笑说,深呼吸深呼吸以后,大模散热风扇就转速就提高了。型靠现A效果修真界的垃圾佬

也有人表示,数学示词胜人刚高薪入职的再涨I自提示工程师们也应该深呼吸,工作可能干不久了

相关论文《大语言模型是分谷优化器》,再次引起轰动。己设计提

具体来说,深呼吸大模型自己设计的提示词在 Big-Bench Hard 数据集上最高提升 50%。

也有人的关注点在“不同模型的最佳提示词不一样”。

并且不止提示词设计这一个任务,在论文中还测试了大模型在线性回归和旅行商问题这些经典优化任务上的能力。

模型不同,最佳提示词也不同

优化问题无处不在,基于导数和梯度的算法是强大的工具,但现实应用中也经常遇到梯度不适用的情况。

为解决这个问题,团队开发了新方法 OPRO,也就是通过提示词优化(Optimization by PROmpting)。

不是形式化定义优化问题然后用程序求解,而是用自然语言描述优化问题,并要求大模型生成新的解决方案。

一图流总结,就是对大模型的一种递归调用。

每一步优化中,以之前生成的解决方案和评分作为输入,大模型生成新的方案并评分,再将其添加到提示词中,供下一步优化使用。

论文主要使用谷歌的 PaLM 2 和 Bard 中的 text-bison 版本作为评测模型。

再加上 GPT-3.5 和 GPT-4,共 4 种模型作为优化器。

结果表明,不光不同模型设计出的提示词风格不同,适用的提示词风格也不同。

此前在 GPT 系列上的 AI 设计出的最优提示词是“Let’s work this out in a step by step way to be sure we have the right answer.”

这个提示词使用 APE 方法设计,论文发表在 ICLR 2023 上,在 GPT-3(text-davinci-002)上超过人类设计的版本“Let’s think step by step”。

但这次在谷歌系 PaLM 2 和 Bard 上,APE 版本作为基线就还不如人类版本。

OPRO 方法设计出来的新提示词中,“深呼吸”和“拆解这个问题”对 PaLM 来说效果最好。

对 text-bison 版的 Bard 大模型来说,则更倾向于详细的提示词。

另外论文还展示了大模型在数学优化器上的潜力。

线性回归作为连续优化问题的示例。

旅行商问题作为离散优化问题的示例。

仅仅通过提示,大模型就能找到不错的解决方案,有时甚至匹敌或超过手动设计的启发式算法。

但团队也认为大模型还无法替代传统基于梯度的优化算法,当问题规模较大(如节点数量较多的旅行商问题)时,OPRO 方法表现就不好。

对于未来改进方向,团队提出当前大模型还无法有效利错误案例,仅提供错误案例无法让大模型捕捉捕捉到错误的原因。

一个有前景的方向是结合关于错误案例的更丰富的反馈,并总结优化轨迹中高质量和低质量生成提示的关键特征差异。

这些信息可能帮助优化器模型更高效地改进过去生成的提示,并可能进一步减少提示优化所需的样本数量。

论文放出大量最优提示词

论文来自谷歌与 DeepMind 合并后的部门,但作者以原谷歌大脑团队为主,包括 Quoc Le、周登勇。

共同一作为康奈尔大学博士毕业的复旦校友 Chengrun Yang,和 UC 伯克利博士毕业的上交大校友陈昕昀。

团队还在论文中给出了大量实验中得到的最优提示词,包括电影推荐、恶搞电影名字等实用场景,有需要的小伙伴可自取。

论文地址:

https://arxiv.org/abs/2309.03409

参考链接:

[1]https://x.com/emollick/status/1700207590607552740

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

顶: 16踩: 3716