論文の概要: Prompt Optimization as a State-Space Search Problem
- arxiv url: http://arxiv.org/abs/2511.18619v1
- Date: Sun, 23 Nov 2025 21:24:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.93286
- Title: Prompt Optimization as a State-Space Search Problem
- Title(参考訳): 状態空間探索問題としてのプロンプト最適化
- Authors: Maanas Taneja,
- Abstract要約: 言語モデルは、インプットプロンプト文字列に小さな変更を加えることで、パフォーマンスの崩壊の影響を受けやすい。
本稿では,従来の状態空間探索問題として即時最適化を扱う代替手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language Models are extremely susceptible to performance collapse with even small changes to input prompt strings. Libraries such as DSpy (from Stanford NLP) avoid this problem through demonstration-based prompt optimisation. Inspired by this, I propose an alternative approach that treats prompt optimisation as a classical state-space search problem. I model the prompt space as a graph where nodes represent prompt states and edges correspond to deliberate transformations such as shortening, adding examples, or re- ordering content. Using beam search and random walk algorithms, I systematically explore this space, evaluating candidates on development sets and pruning unpromising branches. Across five NLP tasks (sentiment classification, question answering, summarisation, reason- ing, and natural language inference), I find that even shallow search configurations (beam width=2, depth=2) improve upon seed prompts on development sets. For instance, beam search achieves development accuracy gains from 0.40 to 0.80 on reasoning tasks, though test set improvements are more modest (0.20 to 0.50), indicating overfitting to the develop- ment heuristic. Analysis of successful optimisation paths reveals that transformations that make prompts concise appear most frequently, while verbosity operators are never selected. My results validate prompt optimization as a search problem and suggest that with greater computational resources and improved evaluation metrics, deeper exploration could yield more robust prompts that generalize beyond development sets. Code and implementation are available at [https://github.com/MaanasTaneja/PromptOptimiser].
- Abstract(参考訳): 言語モデルは、入力プロンプト文字列に小さな変更を加えることで、パフォーマンスの崩壊に非常に影響を受けやすい。
DSpy(Stanford NLP)のようなライブラリは、デモベースのプロンプト最適化によってこの問題を回避する。
これに触発されて、高速な最適化を古典的な状態空間探索問題として扱う方法を提案する。
私はプロンプト空間をグラフとしてモデル化します。ノードはプロンプト状態を表し、エッジはショートニングやサンプルの追加、コンテンツの再注文といった意図的な変換に対応します。
ビームサーチとランダムウォークアルゴリズムを用いて、この空間を体系的に探索し、開発セットの候補を評価し、未成熟の枝を刈り取る。
5つのNLPタスク(知覚分類、質問応答、要約、推論、自然言語推論)で、浅い探索構成(幅=2、深さ=2)でさえ、開発セット上でのシードプロンプトを改善する。
例えば、ビームサーチは推論タスクにおいて開発精度が0.40から0.80に向上するが、テストセットの改善はより控えめ(0.20から0.50)、開発段階のヒューリスティックに過度に適合していることを示す。
最適化を成功させるパスの解析は、アクセントを簡潔にする変換が最も頻繁に現れるのに対して、冗長性演算子は決して選択されないことを示している。
その結果、探索問題としてプロンプト最適化を検証し、より大きな計算資源と評価指標の改善により、より深い探索により、開発セットを超えて一般化するより堅牢なプロンプトが得られることを示唆した。
コードと実装は[https://github.com/MaanasTaneja/PromptOptimiser]で確認できる。
関連論文リスト
- Adaptive Blockwise Search: Inference-Time Alignment for Large Language Models [13.368340836611075]
インタイム法は微調整の柔軟な代替手段を提供するが、その一様計算の努力は、しばしば準最適アライメントをもたらす。
本稿では,ブロックワイズ検索の新たな戦略であるAdaSearchを紹介する。
サンプリングスケジュールを用いて、固定された計算予算を適応的に割り当て、クリティカルトークンに探索努力を集中させる。
論文 参考訳(メタデータ) (2025-10-27T13:48:59Z) - Beyond Magic Words: Sharpness-Aware Prompt Evolving for Robust Large Language Models with TARE [57.67972800581953]
そこで,本論文では,プロンプトをハードパラフレーズで強調する内的,サンプリングに基づく逆探索を交互に行う,デリバティブフリーなフレームワークTAREを紹介する。
また,意味的近傍を形成するために異方性重みを学習し,時間とともに半径を調整し,探索と忠実性のバランスをとるATAREを提案する。
論文 参考訳(メタデータ) (2025-09-28T23:57:05Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - A Three-Stage Algorithm for the Closest String Problem on Artificial and Real Gene Sequences [39.58317527488534]
ストロースト文字列問題(Closest String Problem)は、与えられた文字列の集合に属するすべての列から最小距離の文字列を見つけることを目的としたNPハード問題である。
本稿では,次の3段階のアルゴリズムを提案する。まず,検索領域を効果的に見つけるために,検索空間を削減するために,新しいアルファベットプルーニング手法を適用する。
第二に、解を見つけるためのビーム探索の変種を用いる。この方法は、部分解の期待距離スコアに基づいて、新たに開発された誘導関数を利用する。
論文 参考訳(メタデータ) (2024-07-17T21:26:27Z) - Task Facet Learning: A Structured Approach to Prompt Optimization [13.423478909210353]
本稿では,タスクの複数の面をトレーニング例から学習するアルゴリズムを提案する。
提案アルゴリズムであるUniPromptは、入力空間をクラスタ化し、クラスタ化されたバッチを使用する。
複数のデータセットと実世界のタスクに対する経験的評価は、ショートネームを用いて生成されたプロンプトが、人間のチューニングしたプロンプトと最先端の手法によるプロンプトよりも高い精度が得られることを示している。
論文 参考訳(メタデータ) (2024-06-15T04:54:26Z) - A Bayesian approach for prompt optimization in pre-trained language
models [1.980639720136382]
本稿では,大規模言語モデル (LLM) へのアクセスを伴ってテキスト入力に追加される離散トークンを直接検索するハードプロンプトチューニング (HPT) に焦点を当てる。
本稿では,pyTorch上に構築されたベイズ最適化研究のためのライブラリであるBoTorchを使用する。
論文 参考訳(メタデータ) (2023-12-01T10:10:18Z) - Deep Continuous Prompt for Contrastive Learning of Sentence Embeddings [8.70715711885114]
本稿では,言語モデル全体を凍結し,プレフィックスの深い連続的なプロンプトのみを最適化する新しい手法を提案する。
元の言語モデルの約0.1%のパラメータをチューニングするだけでなく、手作りのプロンプトを検索する面倒な計算を避ける。
提案したDCPCSEは最先端のSimCSEよりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-03-14T06:07:44Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Determinantal Beam Search [75.84501052642361]
ビームサーチは、ニューラルシーケンスモデルをデコードするためのゴーツー戦略である。
複数のソリューションを要求するユースケースでは、多様あるいは代表的なセットがしばしば望まれる。
ビームサーチを一連の部分決定問題として繰り返し行うことにより、アルゴリズムを多種多様なサブセット選択プロセスに変換することができる。
論文 参考訳(メタデータ) (2021-06-14T13:01:46Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。