論文の概要: Demystifying optimized prompts in language models
- arxiv url: http://arxiv.org/abs/2505.02273v1
- Date: Sun, 04 May 2025 22:04:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.522209
- Title: Demystifying optimized prompts in language models
- Title(参考訳): 言語モデルにおける最適化プロンプトのデミスティフィケーション
- Authors: Rimon Melamed, Lucas H. McCabe, H. Howie Huang,
- Abstract要約: 本稿では,最適化プロンプトの構成と,最適化プロンプトからLMが解析・構築するメカニズムについて検討する。
最適化されたプロンプトは主に、トレーニングデータでより稀な句読点と名詞トークンで構成されていることがわかった。
- 参考スコア(独自算出の注目度): 1.515687944002438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern language models (LMs) are not robust to out-of-distribution inputs. Machine generated (``optimized'') prompts can be used to modulate LM outputs and induce specific behaviors while appearing completely uninterpretable. In this work, we investigate the composition of optimized prompts, as well as the mechanisms by which LMs parse and build predictions from optimized prompts. We find that optimized prompts primarily consist of punctuation and noun tokens which are more rare in the training data. Internally, optimized prompts are clearly distinguishable from natural language counterparts based on sparse subsets of the model's activations. Across various families of instruction-tuned models, optimized prompts follow a similar path in how their representations form through the network.
- Abstract(参考訳): 現代の言語モデル(LM)は、アウト・オブ・ディストリビューション・インプットに対して堅牢ではない。
マシン生成(``optimized'')プロンプトは、LM出力を変調し、完全に解釈不可能なように見える特定の振る舞いを誘導するために使用することができる。
本研究では,最適化プロンプトの構成と,最適化プロンプトからLMが解析・構築するメカニズムについて検討する。
最適化されたプロンプトは主に、トレーニングデータでより稀な句読点と名詞トークンで構成されていることがわかった。
内部的には、最適化されたプロンプトは、モデルのアクティベーションのスパース部分集合に基づいて、自然言語のプロンプトと明確に区別できる。
命令調整されたモデルの様々なファミリで、最適化されたプロンプトは、ネットワークを通して表現がどのように形成されるかに類似した経路をたどる。
関連論文リスト
- $\textit{LinkPrompt}$: Natural and Universal Adversarial Attacks on Prompt-based Language Models [13.416624729344477]
Promptベースの学習は、トレーニング済み言語モデル(PLM)を下流タスクに適応させる新しい言語モデルトレーニングパラダイムである。
本研究は, 対向トリガを生成する逆攻撃アルゴリズムである $textitLinkPrompt$ を開発する。
論文 参考訳(メタデータ) (2024-03-25T05:27:35Z) - Are Large Language Models Good Prompt Optimizers? [65.48910201816223]
我々は,LLMに基づくPrompt Optimizationの実際のメカニズムを明らかにするために研究を行っている。
以上の結果から, LLMは, 反射中の誤差の真の原因を特定するのに苦慮し, 自己の事前知識に偏っていることが明らかとなった。
我々は、より制御可能な方法でターゲットモデルの振舞いを直接最適化する新しい「自動振舞い最適化」パラダイムを導入する。
論文 参考訳(メタデータ) (2024-02-03T09:48:54Z) - Prompts have evil twins [3.043247652016184]
私たちはこれらのプロンプトを「悪の双子」と呼びます。
これらのプロンプトは、独立性のある応用を持つ最大様相問題の解法によって得られる。
論文 参考訳(メタデータ) (2023-11-13T04:08:49Z) - Quantifying Language Models' Sensitivity to Spurious Features in Prompt Design or: How I learned to start worrying about prompt formatting [68.19544657508509]
言語モデル(LLM)は、言語技術の基本コンポーネントとして採用されている。
いくつかの広く使われているオープンソースLLMは、数ショット設定でプロンプトフォーマットの微妙な変更に対して非常に敏感であることがわかった。
本稿では,与えられたタスクに対して有効なプロンプトフォーマットのサンプルセットを迅速に評価するアルゴリズムを提案し,モデル重み付けにアクセスせずに期待性能の間隔を報告する。
論文 参考訳(メタデータ) (2023-10-17T15:03:30Z) - EvoPrompt: Connecting LLMs with Evolutionary Algorithms Yields Powerful Prompt Optimizers [67.64162164254809]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。