論文の概要: How to Auto-optimize Prompts for Domain Tasks? Adaptive Prompting and Reasoning through Evolutionary Domain Knowledge Adaptation
- arxiv url: http://arxiv.org/abs/2510.21148v1
- Date: Fri, 24 Oct 2025 04:38:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.385689
- Title: How to Auto-optimize Prompts for Domain Tasks? Adaptive Prompting and Reasoning through Evolutionary Domain Knowledge Adaptation
- Title(参考訳): ドメインタスクのプロンプトの自動最適化法 : 進化的ドメイン知識適応による適応的プロンプティングと推論
- Authors: Yang Zhao, Pu Wang, Hao Frank Yang,
- Abstract要約: EGO-Promptは、より良いプロンプト、効率的な推論プロセス、改善された因果情報処理を設計する自動化フレームワークである。
因果誘導による新たなテキスト勾配プロセスを2つのステップに統合する。
最先端の手法よりも7.32%-12.61%高いF1を実現し、小型モデルは原価の20%以下で大型モデルの性能に達することができる。
- 参考スコア(独自算出の注目度): 14.124422051296813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing optimal prompts and reasoning processes for large language models (LLMs) on domain-specific tasks is both necessary and challenging in real-world applications. Determining how to integrate domain knowledge, enhance reasoning efficiency, and even provide domain experts with refined knowledge integration hints are particularly crucial yet unresolved tasks. In this research, we propose Evolutionary Graph Optimization for Prompting (EGO-Prompt), an automated framework to designing better prompts, efficient reasoning processes and providing enhanced causal-informed process. EGO-Prompt begins with a general prompt and fault-tolerant initial Semantic Causal Graph (SCG) descriptions, constructed by human experts, which is then automatically refined and optimized to guide LLM reasoning. Recognizing that expert-defined SCGs may be partial or imperfect and that their optimal integration varies across LLMs, EGO-Prompt integrates a novel causal-guided textual gradient process in two steps: first, generating nearly deterministic reasoning guidance from the SCG for each instance, and second, adapting the LLM to effectively utilize the guidance alongside the original input. The iterative optimization algorithm further refines both the SCG and the reasoning mechanism using textual gradients with ground-truth. We tested the framework on real-world public health, transportation and human behavior tasks. EGO-Prompt achieves 7.32%-12.61% higher F1 than cutting-edge methods, and allows small models to reach the performence of larger models at under 20% of the original cost. It also outputs a refined, domain-specific SCG that improves interpretability.
- Abstract(参考訳): 大規模言語モデル(LLM)のドメイン固有のタスクに対する最適なプロンプトと推論プロセスの設計は、現実世界のアプリケーションにおいて必要かつ困難である。
ドメイン知識の統合方法の決定、推論効率の向上、さらには知識の統合ヒントをドメイン専門家に提供することは、特に重要で未解決のタスクである。
本研究では、より優れたプロンプトを設計し、効率的な推論プロセスを提供し、因果インフォームドプロセスの強化を実現するための自動フレームワークであるEGO-Prompt(Evolutionary Graph Optimization for Prompting)を提案する。
EGO-Promptは、人間の専門家によって構築された一般的なプロンプトと耐障害性の初期セマンティック因果グラフ(SCG)の記述から始まり、自動的に洗練され、LSM推論のガイドに最適化される。
EGO-Promptは、専門家が定義したSCGが部分的あるいは不完全であることを認識し、それらの最適統合がLLMによって異なることを認識し、新しい因果誘導のテキスト勾配プロセスを2つのステップに統合する。
反復最適化アルゴリズムは, テキスト勾配を用いたSCGと推論機構をさらに改良する。
我々は、実際の公衆衛生、交通、人間の行動タスクに関するフレームワークをテストした。
EGO-Promptは最先端の手法よりも7.32%-12.61%高いF1を実現し、小型モデルは原価の20%以下で大規模モデルの性能に達することができる。
また、洗練されたドメイン固有のSCGを出力し、解釈性を改善している。
関連論文リスト
- Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - Tournament of Prompts: Evolving LLM Instructions Through Structured Debates and Elo Ratings [0.9437165725355702]
我々は,エロの選考による議論駆動評価を通じて,進化を促す新しいフレームワークであるDEEVOを紹介する。
Eloの格付けをフィットネスプロキシとして利用することで、DEEVOは同時に改善を推進し、迅速な人口の貴重な多様性を保ちます。
論文 参考訳(メタデータ) (2025-05-30T19:33:41Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - From Understanding to Excelling: Template-Free Algorithm Design through Structural-Functional Co-Evolution [39.42526347710991]
大規模言語モデル(LLM)はアルゴリズム生成と最適化の自動化を大幅に加速した。
LLMに基づくエンドツーエンドのアルゴリズム生成と最適化フレームワークを提案する。
我々のアプローチは、LLMの深い意味理解を利用して、自然言語の要求や人間による論文をコードソリューションに変換する。
論文 参考訳(メタデータ) (2025-03-13T08:26:18Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Towards more Contextual Agents: An extractor-Generator Optimization Framework [0.0]
LLM(Large Language Model)ベースのエージェントは、幅広い汎用アプリケーションにわたる複雑なタスクの解決に顕著な成功を収めている。
しかしながら、それらのパフォーマンスは、専門産業や研究領域のようなコンテキスト固有のシナリオで劣化することが多い。
この課題に対処するため,本研究では,LLMエージェントの文脈適応性を高めるための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:07:06Z) - OG-RAG: Ontology-Grounded Retrieval-Augmented Generation For Large Language Models [5.967549123296788]
本稿では,ドメイン固有コンテキストにおけるプロセスのアンカー化による応答向上のためのオントロジー・グラウンド検索生成手法であるOG-RAGを提案する。
OG-RAGは、事実に基づく推論が不可欠である領域に適用される。
論文 参考訳(メタデータ) (2024-12-12T01:21:03Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。