論文の概要: Interpolative Decoding: Exploring the Spectrum of Personality Traits in LLMs
- arxiv url: http://arxiv.org/abs/2512.19937v1
- Date: Tue, 23 Dec 2025 00:00:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.691655
- Title: Interpolative Decoding: Exploring the Spectrum of Personality Traits in LLMs
- Title(参考訳): 補間復号:LLMにおけるパーソナリティ特性のスペクトルを探索する
- Authors: Eric Yeh, John Cadigan, Ran Chen, Dick Crouch, Melinda Gervasio, Dayne Freitag,
- Abstract要約: 補間復号法は,各ビッグファイブ次元のスコアを確実に変調することを示す。
次に、補間復号化がLLMの経済ゲームにおける人間の意思決定行動の模倣をいかに引き起こすかを示す。
- 参考スコア(独自算出の注目度): 2.4453983675979485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has explored using very large language models (LLMs) as proxies for humans in tasks such as simulation, surveys, and studies. While LLMs do not possess a human psychology, they often can emulate human behaviors with sufficiently high fidelity to drive simulations to test human behavioral hypotheses, exhibiting more nuance and range than the rule-based agents often employed in behavioral economics. One key area of interest is the effect of personality on decision making, but the requirement that a prompt must be created for every tested personality profile introduces experimental overhead and degrades replicability. To address this issue, we leverage interpolative decoding, representing each dimension of personality as a pair of opposed prompts and employing an interpolation parameter to simulate behavior along the dimension. We show that interpolative decoding reliably modulates scores along each of the Big Five dimensions. We then show how interpolative decoding causes LLMs to mimic human decision-making behavior in economic games, replicating results from human psychological research. Finally, we present preliminary results of our efforts to ``twin'' individual human players in a collaborative game through systematic search for points in interpolation space that cause the system to replicate actions taken by the human subject.
- Abstract(参考訳): 近年の研究では、シミュレーション、調査、研究などのタスクにおいて、人間のためのプロキシとして非常に大きな言語モデル(LLM)を用いて検討されている。
LLMは人間の心理学を持っていないが、人間の行動仮説をテストするためのシミュレーションを駆動するために十分な忠実さで人間の行動をエミュレートできることが多く、行動経済学でしばしば使用されるルールベースのエージェントよりもニュアンスと範囲が大きくなる。
重要な領域の1つは、人格が意思決定に与える影響であるが、テストされた人格プロファイルごとにプロンプトを作成する必要があるという要件は、実験的なオーバーヘッドを導入し、複製性を低下させる。
この問題に対処するために,各次元のパーソナリティを1対のプロンプトとして表現し,その次元に沿った振る舞いをシミュレートするために補間パラメータを用いる補間復号法を用いる。
補間復号法は,各ビッグファイブ次元のスコアを確実に変調することを示す。
次に、補間的復号化がLLMの経済ゲームにおける人間の意思決定行動を模倣し、人間の心理的研究の結果を再現することを示す。
最後に,人間の動作を再現する補間空間の点を体系的に探索することで,協調ゲームにおける「ツイン」個人プレイヤーへの取り組みの予備的な結果を示す。
関連論文リスト
- Large language models replicate and predict human cooperation across experiments in game theory [0.8166364251367626]
大きな言語モデルが実際の人間の意思決定をいかに反映しているかは、いまだに理解されていない。
我々は,ゲーム理論実験のディジタルツインを開発し,機械行動評価のためのシステマティック・プロンプトと探索の枠組みを導入する。
Llamaは人間の協調パターンを高い忠実度で再現し、合理的選択理論から人間の偏差を捉える。
論文 参考訳(メタデータ) (2025-11-06T16:21:27Z) - How Far are LLMs from Being Our Digital Twins? A Benchmark for Persona-Based Behavior Chain Simulation [30.713599131902566]
本稿では,デジタル双生児が連続した人間の行動をシミュレートする能力を評価する最初のベンチマークであるBehavimentChainを紹介する。
BehaviorChainは、多種多様で高品質なペルソナベースの行動連鎖で構成され、1,001のユニークなペルソナに対して15,846の異なる振る舞いがある。
総合的な評価結果は、最先端モデルでさえ、連続した人間の行動の正確なシミュレートに苦慮していることを示している。
論文 参考訳(メタデータ) (2025-02-20T15:29:32Z) - Personality Structured Interview for Large Language Model Simulation in Personality Research [8.208325358490807]
人格研究における人間の反応をシミュレートするためのツールとして,理論インフォームド・パーソナリティ構造化インタビューの可能性を探る。
対象サンプルから,32質問に対する個人の回答を含む357件の構造化面接書を作成した。
3つの実験の結果、LLMシミュレーションされた人格データにおいて、よく設計されたインタビューが人間のような不均一性を改善できることを示した。
論文 参考訳(メタデータ) (2025-02-17T18:31:57Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Exploring the Intersection of Large Language Models and Agent-Based
Modeling via Prompt Engineering [0.0]
大きな言語モデル(LLM)がこのボトルネックの潜在的な解決策として現れている。
本稿では,人間行動の予測可能なプロキシのシミュレーションを2つ提示する。
論文 参考訳(メタデータ) (2023-08-14T18:58:00Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。