論文の概要: Do LLMs Play Dice? Exploring Probability Distribution Sampling in Large Language Models for Behavioral Simulation
- arxiv url: http://arxiv.org/abs/2404.09043v1
- Date: Sat, 13 Apr 2024 16:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 17:34:10.170986
- Title: Do LLMs Play Dice? Exploring Probability Distribution Sampling in Large Language Models for Behavioral Simulation
- Title(参考訳): LLMは楽しむか? 行動シミュレーションのための大規模言語モデルにおける確率分布の探索
- Authors: Jia Gu, Liang Pang, Huawei Shen, Xueqi Cheng,
- Abstract要約: 本稿では,確率分布を理解するための大規模言語モデルの能力について検討する。
LLMエージェントは,プログラムツールを用いても確率分布をサンプリングすることはできない。
分析の結果,LLMエージェントはプログラムツールを用いても確率分布をサンプリングできないことがわかった。
- 参考スコア(独自算出の注目度): 73.58618024960968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of large language models (LLMs) and their remarkable capabilities in handling complex language tasks, an increasing number of studies are employing LLMs as agents to emulate the sequential decision-making processes of humans often represented as Markov decision-making processes (MDPs). The actions within this decision-making framework adhere to specific probability distributions and require iterative sampling. This arouses our curiosity regarding the capacity of LLM agents to comprehend probability distributions, thereby guiding the agent's behavioral decision-making through probabilistic sampling and generating behavioral sequences. To answer the above question, we divide the problem into two main aspects: simulation where the exact probability distribution is known, and generation of sequences where the probability distribution is ambiguous. In the first case, the agent is required to give the type and parameters of the probability distribution through the problem description, and then give the sampling sequence. However, our analysis shows that LLM agents perform poorly in this case, but the sampling success rate can be improved through programming tools. Real-world scenarios often entail unknown probability distributions. Thus, in the second case, we ask the agents to change the activity level in online social networks and analyze the frequency of actions. Ultimately, our analysis shows that LLM agents cannot sample probability distributions even using programming tools. Therefore, careful consideration is still required before directly applying LLM agents as agents to simulate human behavior.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩と複雑な言語タスクの処理における顕著な能力により、マルコフ決定過程(MDP)として表される人間のシーケンシャルな意思決定過程をエミュレートするエージェントとしてLLMを採用する研究が増えている。
この意思決定フレームワーク内のアクションは、特定の確率分布に従属し、反復的なサンプリングを必要とする。
これにより、LLMエージェントの能力に関する好奇心を喚起し、確率的サンプリングと行動系列の生成を通じて、エージェントの行動決定を導く。
上記の問題に答えるために, 確率分布が正確な場合のシミュレーションと, 確率分布があいまいな場合のシーケンスの生成という2つの主要な側面に分割する。
最初のケースでは、エージェントは問題記述を通して確率分布の型とパラメータを与え、次にサンプリングシーケンスを与える必要がある。
しかし, 解析の結果, LLM エージェントの性能は低下するが, サンプリング成功率はプログラムツールによって改善できることがわかった。
実世界のシナリオは、しばしば未知の確率分布を含む。
したがって、第2の事例では、エージェントに対して、オンラインソーシャルネットワークのアクティビティレベルを変更し、アクションの頻度を分析するよう依頼する。
分析の結果,LLMエージェントはプログラムツールを用いても確率分布をサンプリングできないことがわかった。
したがって、ヒトの行動のシミュレートにLSM剤を直接塗布するには、注意が必要である。
関連論文リスト
- Enabling Ensemble Learning for Heterogeneous Large Language Models with Deep Parallel Collaboration [39.35476224845088]
大規模言語モデル(LLM)は、様々なタスクやインスタンスにおいて相補的な強みを示している。
既存の手法は、訓練されたモデルの一般化可能性に大きな課題をもたらす。
異なるLLMが出力する確率を平均化するトレーニングフリーアンサンブルフレームワークDEEPENを提案する。
論文 参考訳(メタデータ) (2024-04-19T08:52:22Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - LaGR-SEQ: Language-Guided Reinforcement Learning with Sample-Efficient
Querying [71.86163159193327]
大規模言語モデル(LLM)は、最近、テキストを介してコンテキスト対応の応答を提供するという、印象的な能力を実証した。
この能力は、パターン補完に関連するシーケンシャルな意思決定タスクにおいて、妥当なソリューションを予測するために使われる可能性がある。
第一強化学習(RL)エージェントによって部分的に完了したタスクに対する解を提案するために,LLMのこの予測能力を利用するLaGRを紹介した。
論文 参考訳(メタデータ) (2023-08-21T02:07:35Z) - A Flow-Based Generative Model for Rare-Event Simulation [0.483420384410068]
本研究では,正規化フロー生成モデルを用いて,条件分布から直接サンプルをシミュレートする手法を提案する。
希少な分布から直接シミュレートすることで、希少な事象の発生の仕方において重要な洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-13T08:25:57Z) - Factorization of Multi-Agent Sampling-Based Motion Planning [72.42734061131569]
現代のロボティクスは、共有環境内で複数のエンボディエージェントを動作させることが多い。
標準的なサンプリングベースのアルゴリズムは、ロボットの関節空間における解の探索に使用できる。
我々は、因子化の概念をサンプリングベースアルゴリズムに統合し、既存の手法への最小限の変更しか必要としない。
本稿では, PRM* のサンプル複雑性の観点から解析的ゲインを導出し, RRG の実証結果を示す。
論文 参考訳(メタデータ) (2023-04-01T15:50:18Z) - Evaluating Distributional Distortion in Neural Language Modeling [81.83408583979745]
稀な事象の重みは、言語における分布の総確率質量のかなりの量を占める。
パープレキシティなどの標準言語モデリングメトリクスは、集約された言語モデル(LM)のパフォーマンスを定量化する。
自然言語を人工言語として訓練した生成モデルを用いた制御評価手法を開発した。
論文 参考訳(メタデータ) (2022-03-24T01:09:46Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Exploring Generalization Ability of Pretrained Language Models on
Arithmetic and Logical Reasoning [8.879537068017367]
プレトレーニング言語モデル(PLM)の一般化能力について検討する。
我々は,最も先進的で一般公開された PLM - BART の1つについて実験を行った。
本研究は, 分布が同じ場合, PLM は容易に一般化できることを示したが, 分布から一般化することは依然として困難である。
論文 参考訳(メタデータ) (2021-08-15T13:42:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。