論文の概要: LLM Agents Are Hypersensitive to Nudges
- arxiv url: http://arxiv.org/abs/2505.11584v1
- Date: Fri, 16 May 2025 17:53:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.725447
- Title: LLM Agents Are Hypersensitive to Nudges
- Title(参考訳): LLM剤は栄養素に過敏である
- Authors: Manuel Cherep, Pattie Maes, Nikhil Singh,
- Abstract要約: 人間の選択分布と表面的類似性にもかかわらず、モデルは微妙ながら重要な方法で異なることを示す。
ゼロショット・チェーン・オブ・シンキング(CoT)のような単純なプロンプト戦略は、選択分布をシフトさせ、人間のデータによる少数ショット・プロンプトは、よりアライメントを高めることができることを示す。
これらの結果は、複雑な環境でユーザに代わって行動するエージェントやアシスタントとしてモデルをデプロイする前に、行動テストが必要であることを示唆している。
- 参考スコア(独自算出の注目度): 23.427995912149385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs are being set loose in complex, real-world environments involving sequential decision-making and tool use. Often, this involves making choices on behalf of human users. However, not much is known about the distribution of such choices, and how susceptible they are to different choice architectures. We perform a case study with a few such LLM models on a multi-attribute tabular decision-making problem, under canonical nudges such as the default option, suggestions, and information highlighting, as well as additional prompting strategies. We show that, despite superficial similarities to human choice distributions, such models differ in subtle but important ways. First, they show much higher susceptibility to the nudges. Second, they diverge in points earned, being affected by factors like the idiosyncrasy of available prizes. Third, they diverge in information acquisition strategies: e.g. incurring substantial cost to reveal too much information, or selecting without revealing any. Moreover, we show that simple prompt strategies like zero-shot chain of thought (CoT) can shift the choice distribution, and few-shot prompting with human data can induce greater alignment. Yet, none of these methods resolve the sensitivity of these models to nudges. Finally, we show how optimal nudges optimized with a human resource-rational model can similarly increase LLM performance for some models. All these findings suggest that behavioral tests are needed before deploying models as agents or assistants acting on behalf of users in complex environments.
- Abstract(参考訳): LLMは、シーケンシャルな意思決定とツールの使用を含む、複雑な現実世界の環境で緩く設定されています。
多くの場合、これは人間のユーザーのために選択される。
しかし、そのような選択の分布や、異なる選択アーキテクチャに対する影響についてはあまり知られていない。
我々は,既定オプションや提案,情報強調表示といった標準的手法の下で,複数属性の表型決定問題に対して,そのようなLCMモデルを用いてケーススタディを行うとともに,追加のプロンプト戦略も実施する。
人間の選択分布と表面的類似性にもかかわらず、そのようなモデルは微妙ながら重要な方法で異なることを示す。
まず、ナッジに対する感受性がずっと高いことを示します。
第2に、彼らは獲得したポイントを分散し、利用可能な賞の慣用性のような要因に影響を受けます。
第3に、情報取得戦略が多様化している。例えば、過剰な情報を明らかにするために相当なコストがかかることや、何も明らかにせずに選択すること。
さらに、ゼロショット・チェーン・オブ・シンキング(CoT)のような単純なプロンプト戦略は、選択分布をシフトさせ、人間のデータによる少数ショット・プロンプトは、よりアライメントを高めることができることを示す。
しかし、これらの手法はどれもこれらのモデルの感度をヌッジに分解するものではない。
最後に,人為的資源構成モデルに最適化された最適ノッジが,同様にLLM性能を向上することを示す。
これらの結果は、複雑な環境でユーザに代わって行動するエージェントやアシスタントとしてモデルをデプロイする前に、行動テストが必要であることを示唆している。
関連論文リスト
- Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Evaluating Binary Decision Biases in Large Language Models: Implications for Fair Agent-Based Financial Simulations [15.379345372327375]
エージェントベースの金融市場モデルにおいて、人間のような意思決定をシミュレートするために、LLM(Large Language Models)がますます使われている。
我々は,2つのモデルサンプリングアプローチ(ワンショットと少数ショットのAPIクエリ)を用いて,最先端のGPTモデル3つをバイアスとして検証する。
論文 参考訳(メタデータ) (2025-01-20T10:36:51Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - CogBench: a large language model walks into a psychology lab [12.981407327149679]
本稿では,7つの認知心理学実験から得られた10の行動指標を含むベンチマークであるCogBenchを紹介する。
本稿では,CagBenchを35大言語モデル(LLM)に適用し,統計的多レベルモデリング手法を用いて解析する。
オープンソースモデルは、プロプライエタリなモデルよりもリスクが高く、コードの微調整は必ずしもLLMの振舞いを促進しない。
論文 参考訳(メタデータ) (2024-02-28T10:43:54Z) - Intuitive or Dependent? Investigating LLMs' Behavior Style to
Conflicting Prompts [9.399159332152013]
本研究では,Large Language Models (LLM) の動作を,内部記憶と競合するプロンプトに直面する場合の挙動について検討する。
これにより、LLMの意思決定機構を理解し、検索強化生成(RAG)のような現実世界のアプリケーションにも役立つ。
論文 参考訳(メタデータ) (2023-09-29T17:26:03Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Large Language Models Sensitivity to The Order of Options in
Multiple-Choice Questions [5.187383020960245]
大規模言語モデル(LLM)は、様々なNLPタスクにおいて顕著な機能を示した。
これまでの研究では、これらのモデルが素早い言葉の表現に敏感であること、そして数発のデモとその順序が示されている。
本稿では,複数質問における選択肢の順序に対するLLMの感度について検討する。
論文 参考訳(メタデータ) (2023-08-22T14:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。