2026年03月27日:LLaMEA: A Large Language Model Evolutionary Algorithm for Automatically Generating Metaheuristics

  • 主页 /
  • 通知公告 /
  • 通知公告

2026年03月27日:LLaMEA: A Large Language Model Evolutionary Algorithm for Automatically Generating Metaheuristics

【报告内容】

汇报人: 汤道明

汇报单位:福建理工大学

主题:LLaMEA: A Large Language Model Evolutionary Algorithm for Automatically Generating Metaheuristics

1、Introduction

2、Method

3、Experiments

4、Conclusion

【报告总结】

1.待解决的问题描述

传统智能优化算法(如PSO、DE等)的设计高度依赖专家经验,算法创新效率低,且大量新算法本质只是已有方法的微小变体,缺乏系统化、自动化的设计方式。同时,算法性能评估往往不够标准化,缺少统一的大规模benchmark验证。因此,论文的核心问题是:如何在无需专家手工设计的情况下,自动生成并优化高性能的元启发式算法,实现算法设计自动化。

2.相关创新方案

论文提出LLaMEA框架,将大语言模型(LLM)与进化算法思想结合,实现算法的自动生成与迭代优化。具体来说,LLM负责生成优化算法代码,IOHexperimenter在BBOB测试集上对算法进行系统评估,并通过AOCC指标量化性能;随后将性能反馈(包括分数、历史信息、错误信息等)输入给LLM,引导其对算法进行微调(refine)或重构(redesign),形成类似(1+1)-EA的闭环进化过程。该方法的核心创新在于将算法作为优化对象,通过生成-评估-反馈的自动循环实现算法空间搜索。

3.实验总结

实验基于IOHexperimenter平台和BBOB测试集(24个函数、多实例、多次运行),以AOCC作为统一性能指标,对生成算法进行评估并与CMA-ES、DE、EoH等方法进行对比。结果表明,LLaMEA生成的算法在5维问题上可达到甚至超过部分SOTA算法(如CMA-ES),显著优于随机生成(RS)和已有LLM方法(EoH),验证了其有效性。同时观察到,LLM在进化过程中呈现先探索后利用的行为,生成的算法多为已有方法(如DE)的改进组合。然而,生成算法在高维(10D、20D)上的泛化能力较弱,说明其优化具有明显的问题依赖性。

4.未来工作

未来研究可从多个方向拓展该框架:将当前的(1+1)进化机制扩展为种群级(μ+λ)进化,提高搜索效率与多样性。同时引入多LLM协同或调节生成温度以增强探索能力。将方法推广至更复杂的优化问题(如高维、多目标、工程优化)。还可以可结合代理模型(surrogate)或强化学习,实现更高效的算法设计过程。也可以进一步探索基于种群状态驱动的算法自动选择或生成机制,将LLaMEA思想与PSO或强化学习融合,形成更具适应性的优化框架。

报告时间:2026032719:30

腾讯会议:311-5999-8176

点我下载本讨论课相关文献或PPT吧~(提取码:iipr)