論文の概要: HiFo-Prompt: Prompting with Hindsight and Foresight for LLM-based Automatic Heuristic Design
- arxiv url: http://arxiv.org/abs/2508.13333v1
- Date: Mon, 18 Aug 2025 19:42:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.716324
- Title: HiFo-Prompt: Prompting with Hindsight and Foresight for LLM-based Automatic Heuristic Design
- Title(参考訳): HiFo-Prompt: LLMによる自動ヒューリスティック設計のための隠れ視と予測によるプロンプト
- Authors: Chentong Chen, Mengyuan Zhong, Jianyong Sun, Ye Fan, Jialong Shi,
- Abstract要約: HiFo-Promptは,2つのシナジスティックなプロンプト戦略(ForesightとHindsight)でLCMをガイドするフレームワークである。
Foresightベースのプロンプトは、人口動態に基づく探索を適応的に操縦し、探索と探索のトレードオフを管理する。
Hindsightベースのプロンプトは、過去の世代から成功したトランジェントを基本的で再利用可能な設計原則に蒸留することで、人間の専門性を模倣する。
- 参考スコア(独自算出の注目度): 4.407894279127045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based Automatic Heuristic Design (AHD) within Evolutionary Computation (EC) frameworks has shown promising results. However, its effectiveness is hindered by the use of static operators and the lack of knowledge accumulation mechanisms. We introduce HiFo-Prompt, a framework that guides LLMs with two synergistic prompting strategies: Foresight and Hindsight. Foresight-based prompts adaptively steer the search based on population dynamics, managing the exploration-exploitation trade-off. In addition, hindsight-based prompts mimic human expertise by distilling successful heuristics from past generations into fundamental, reusable design principles. This dual mechanism transforms transient discoveries into a persistent knowledge base, enabling the LLM to learn from its own experience. Empirical results demonstrate that HiFo-Prompt significantly outperforms state-of-the-art LLM-based AHD methods, generating higher-quality heuristics while achieving substantially faster convergence and superior query efficiency.
- Abstract(参考訳): LLMベースの進化計算(EC)フレームワークにおける自動ヒューリスティックデザイン(AHD)は有望な結果を示している。
しかし、静的演算子の使用と知識蓄積機構の欠如により、その効果が妨げられている。
HiFo-Promptは,2つのシナジスティックなプロンプト戦略(ForesightとHindsight)でLCMをガイドするフレームワークである。
フォレストベースのプロンプトは、人口動態に基づいて探索を適応的に操縦し、探索・探索のトレードオフを管理する。
さらに、後見に基づくプロンプトは、過去の経験から成功したヒューリスティックを基本的で再利用可能な設計原則に蒸留することで、人間の専門性を模倣する。
この二重メカニズムは、過渡的な発見を永続的な知識ベースに変換し、LLMが自身の経験から学ぶことを可能にする。
実験結果から、HiFo-Promptは最先端のLCMベースのAHD法よりも優れ、より高品質なヒューリスティックを発生させ、より高速な収束とクエリ効率の向上を実現している。
関連論文リスト
- MeLA: A Metacognitive LLM-Driven Architecture for Automatic Heuristic Design [8.025492778235199]
MeLAはメタ認知型LLM駆動アーキテクチャで、AHD(Automatic Heuristic Design)の新しいパラダイムを提供する
MeLAは、これらを生成する際にLLM(Large Language Model)を導くために使われる命令プロンプトを進化させる。
プロンプト進化」のこのプロセスは、新しいメタ認知フレームワークによって駆動される。
論文 参考訳(メタデータ) (2025-07-28T05:56:40Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search [57.28671084993782]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な推論能力を示している。
近年の研究では、テスト時間計算の増加はLLMの推論能力を高めることが示されている。
そこで我々は,1)COAT推論形式を内部化するための小規模な形式調整段階,2)強化学習を活用した大規模自己改善段階を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:26:58Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。