論文の概要: LLM-driven Imitation of Subrational Behavior : Illusion or Reality?
- arxiv url: http://arxiv.org/abs/2402.08755v1
- Date: Tue, 13 Feb 2024 19:46:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 18:12:44.136766
- Title: LLM-driven Imitation of Subrational Behavior : Illusion or Reality?
- Title(参考訳): LLMによる従属行動の模倣 : 錯覚か現実か?
- Authors: Andrea Coletta, Kshama Dwarakanath, Penghang Liu, Svitlana Vyetrenko,
Tucker Balch
- Abstract要約: 既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
- 参考スコア(独自算出の注目度): 3.2365468114603937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling subrational agents, such as humans or economic households, is
inherently challenging due to the difficulty in calibrating reinforcement
learning models or collecting data that involves human subjects. Existing work
highlights the ability of Large Language Models (LLMs) to address complex
reasoning tasks and mimic human communication, while simulation using LLMs as
agents shows emergent social behaviors, potentially improving our comprehension
of human conduct. In this paper, we propose to investigate the use of LLMs to
generate synthetic human demonstrations, which are then used to learn
subrational agent policies though Imitation Learning. We make an assumption
that LLMs can be used as implicit computational models of humans, and propose a
framework to use synthetic demonstrations derived from LLMs to model
subrational behaviors that are characteristic of humans (e.g., myopic behavior
or preference for risk aversion). We experimentally evaluate the ability of our
framework to model sub-rationality through four simple scenarios, including the
well-researched ultimatum game and marshmallow experiment. To gain confidence
in our framework, we are able to replicate well-established findings from prior
human studies associated with the above scenarios. We conclude by discussing
the potential benefits, challenges and limitations of our framework.
- Abstract(参考訳): 人間や経済世帯などのサブリレーショナルエージェントのモデリングは、強化学習モデルの校正や人体に関わるデータの収集が困難であるため、本質的に困難である。
既存の研究は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデル(LLM)の能力を強調している。
本稿では, 模倣学習をしながら, 補助エージェント政策を学習するために使用される合成ヒト実験を, llmを用いて生成する手法について検討する。
我々は,LLMを人間の暗黙的な計算モデルとして利用することができると仮定し,LLMから派生した合成デモンストレーションを用いて,人間の特徴的なサブリレーショナルな行動(例えば,明視的行動やリスク回避の嗜好)をモデル化する枠組みを提案する。
4つの単純なシナリオを用いて,本フレームワークのサブリレータリティをモデル化する能力について実験的に評価した。
枠組みの信頼性を高めるため、上記のシナリオに関連する先行研究から確立された知見を再現することができる。
最後に、フレームワークの潜在的なメリット、課題、制限について論じます。
関連論文リスト
- Mitigating Catastrophic Forgetting in Large Language Models with
Self-Synthesized Rehearsal [51.36134981232229]
大規模言語モデル(LLM)は、連続学習中に破滅的な忘れ込みに悩まされる。
自己合成リハーサル(Self-Synthesized Rehearsal, SSR)と呼ばれるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-02T16:11:23Z) - Human Simulacra: A Step toward the Personification of Large Language
Models [19.2466344494202]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Systematic Biases in LLM Simulations of Debates [14.12892960275563]
本研究では,人間の相互作用をシミュレーションする際のLLM(Large Language Models)の限界を明らかにする。
以上の結果から,LLMエージェントが特定の政治的視点から議論される一方で,モデル固有の社会的バイアスに適合する傾向が示唆された。
この傾向は、人間の間で確立された社会的ダイナミクスから逸脱しているように見える行動パターンをもたらす。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Do LLM Agents Exhibit Social Behavior? [6.018288992619851]
本研究では,Large Language Models (LLMs) がいかに社会的相互作用の原理を示すかを検討する。
分析の結果, LLMエージェントは, 多様な社会的行動を示すことが示唆された。
LLMは明らかに公正な好みを示し、正の相反性は弱く、社会学習において人間に比べてより計算的なアプローチを示す。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - CoMPosT: Characterizing and Evaluating Caricature in LLM Simulations [61.9212914612875]
本研究では,LLMシミュレーションを4次元(コンテキスト,モデル,ペルソナ,トピック)で特徴付けるフレームワークを提案する。
我々は,この枠組みを用いて,オープンエンドLLMシミュレーションのキャラクチュアへの感受性を測定する。
GPT-4では、特定の人口動態(政治的・疎外化グループ)と話題(一般には非論争的)のシミュレーションは、似顔絵に非常に敏感であることが判明した。
論文 参考訳(メタデータ) (2023-10-17T18:00:25Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Large Language Models as Zero-Shot Human Models for Human-Robot
Interaction [20.644819324460844]
大型言語モデル(LLM)は、人間とロボットの相互作用のためのゼロショット人間モデルとして機能する。
LLMは目的のモデルに匹敵する性能を達成する。
シミュレーションされた信頼に基づくテーブルクリーニングタスクのケーススタディを提案する。
論文 参考訳(メタデータ) (2023-03-06T23:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。