論文の概要: Decoding the Human Factor: High Fidelity Behavioral Prediction for Strategic Foresight
- arxiv url: http://arxiv.org/abs/2602.17222v1
- Date: Thu, 19 Feb 2026 10:13:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.911835
- Title: Decoding the Human Factor: High Fidelity Behavioral Prediction for Strategic Foresight
- Title(参考訳): 人間の因子をデコードする:戦略的展望のための高忠実度行動予測
- Authors: Ben Yellin, Ehud Ezra, Mark Foreman, Shula Grinapol,
- Abstract要約: 大規模行動モデル(英: Large Behavioral Model)は、個々の戦略選択を高い忠実度で予測するために微調整された行動基盤モデルである。
我々は、安定した配置、モチベーション状態、観察された選択に対する状況制約をリンクするプロプライエタリなデータセットをトレーニングした。
プロンプトベースのベースラインは複雑さの天井を示すが、LBMはますます高密度な特性プロファイルの恩恵を受け続けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting human decision-making in high-stakes environments remains a central challenge for artificial intelligence. While large language models (LLMs) demonstrate strong general reasoning, they often struggle to generate consistent, individual-specific behavior, particularly when accurate prediction depends on complex interactions between psychological traits and situational constraints. Prompting-based approaches can be brittle in this setting, exhibiting identity drift and limited ability to leverage increasingly detailed persona descriptions. To address these limitations, we introduce the Large Behavioral Model (LBM), a behavioral foundation model fine-tuned to predict individual strategic choices with high fidelity. LBM shifts from transient persona prompting to behavioral embedding by conditioning on a structured, high-dimensional trait profile derived from a comprehensive psychometric battery. Trained on a proprietary dataset linking stable dispositions, motivational states, and situational constraints to observed choices, LBM learns to map rich psychological profiles to discrete actions across diverse strategic dilemmas. In a held-out scenario evaluation, LBM fine-tuning improves behavioral prediction relative to the unadapted Llama-3.1-8B-Instruct backbone and performs comparably to frontier baselines when conditioned on Big Five traits. Moreover, we find that while prompting-based baselines exhibit a complexity ceiling, LBM continues to benefit from increasingly dense trait profiles, with performance improving as additional trait dimensions are provided. Together, these results establish LBM as a scalable approach for high-fidelity behavioral simulation, enabling applications in strategic foresight, negotiation analysis, cognitive security, and decision support.
- Abstract(参考訳): 高度な環境下での人間の意思決定を予測することは、人工知能にとって依然として中心的な課題である。
大きな言語モデル(LLM)は、強い一般的な推論を示すが、特に心理的特徴と状況制約の間の複雑な相互作用に依存する正確な予測において、一貫性のある個人固有の振る舞いを生成するのに苦労することが多い。
プロンプティングに基づくアプローチは、この設定では不安定であり、アイデンティティドリフトと、より詳細なペルソナの記述を活用する能力の制限が示される。
これらの制約に対処するため,我々は,行動基盤モデルであるLarge Behavioral Model (LBM)を導入する。
LBMは、包括的心理測定電池から誘導される構造化された高次元特性プロファイルに条件付けすることで、過渡的ペルソナから行動的埋め込みへと移行する。
安定した配置、モチベーション状態、観察された選択に対する状況的制約をリンクする独自のデータセットに基づいて、LBMは、豊かな心理学的プロファイルを様々な戦略的ジレンマにまたがる離散的な行動にマッピングすることを学ぶ。
ホールドアウトシナリオ評価では、LBMファインチューニングは、未適応のLlama-3.1-8B-インストラクトバックボーンと比較して行動予測を改善し、ビッグファイブ特性に条件付けされた場合、フロンティアベースラインに相容れないように実行する。
さらに、プロンプトベースのベースラインは複雑さの天井となるが、LBMはより密度の高い特性プロファイルの恩恵を受け続けており、さらなる特性次元が提供されるにつれて性能が向上している。
これらの結果は、LBMを高忠実な行動シミュレーションのためのスケーラブルなアプローチとして確立し、戦略的フォレスト、交渉分析、認知的セキュリティ、意思決定支援の応用を可能にする。
関連論文リスト
- From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models [77.04403907729738]
このサーベイは、受動的診断基準からリアルタイムモデル動作を導くアクティブ制御信号への不確実性の進化をグラフ化する。
3つのフロンティアにまたがるアクティブ制御信号として不確実性がいかに活用されているかを示す。
この調査は、次世代のスケーラブルで信頼性があり、信頼できるAIを構築するためには、新しい不確実性のトレンドを習得することが不可欠である、と論じている。
論文 参考訳(メタデータ) (2026-01-22T06:21:31Z) - DeceptionBench: A Comprehensive Benchmark for AI Deception Behaviors in Real-world Scenarios [57.327907850766785]
現実的な現実のシナリオにまたがる騙しのキャラクタリゼーションは未解明のままである。
DeceptionBenchは、さまざまなドメインにまたがる認知傾向を体系的に評価する最初のベンチマークです。
本研究は,本質的な側面から,ユーザ満足度を優先する自己関心のエゴスティックな傾向を示すモデルや,サイコファンティックな行動を示すモデルについて検討する。
実世界のフィードバックダイナミクスのより現実的なシミュレーションを構築するために,持続的マルチターン相互作用ループを組み込んだ。
論文 参考訳(メタデータ) (2025-10-17T10:14:26Z) - DPRF: A Generalizable Dynamic Persona Refinement Framework for Optimizing Behavior Alignment Between Personalized LLM Role-Playing Agents and Humans [28.038221167188013]
言語モデルロールプレイングエージェント(LLM RPA)は、個人の行動のシミュレートを目的としている。
Dynamic Persona Refinement Framework (DPRF) は、LLM RPAの動作とターゲット個人とのアライメントを最適化することを目的としている。
論文 参考訳(メタデータ) (2025-10-16T01:26:38Z) - Personality as a Probe for LLM Evaluation: Method Trade-offs and Downstream Effects [0.6087817758152709]
本稿では,ビッグファイブ特性を用いたパーソナリティコントロールの体系的研究について述べる。
トラトレベルの分析では、オープン性はICLに最も耐性のある、独特な挑戦であり、同意性を示している。
Gemma-2-2B-ITとLLaMA-3-8B-Instructの実験により明らかなトレードオフが明らかになった。
論文 参考訳(メタデータ) (2025-09-05T04:19:15Z) - The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs [60.15472325639723]
人格特性は、人間の行動の予測因子として長い間研究されてきた。
近年のLarge Language Models (LLM) は, 人工システムに類似したパターンが出現する可能性を示唆している。
論文 参考訳(メタデータ) (2025-09-03T21:27:10Z) - IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization [66.6349183886101]
IROTEは,安定かつ伝達可能な特性抽出のための新しいインコンテキスト手法である。
IROTEが生成する1つの自己反射は、様々な下流タスクにまたがる目標特性の安定な偽造を LLM が引き起こすことを示す。
論文 参考訳(メタデータ) (2025-08-12T08:04:28Z) - Persistent Instability in LLM's Personality Measurements: Effects of Scale, Reasoning, and Conversation History [7.58175460763641]
400B+モデルでさえ、相当な応答変動を示す。
連鎖推論、詳細なペルソナ指導、会話履歴の含意など、行動の安定化を期待する介入は、パラドックス的に変動を増大させる。
予測可能な行動を必要とする安全クリティカルなアプリケーションに対しては,人格に基づくアライメント戦略が根本的に不十分である可能性が示唆された。
論文 参考訳(メタデータ) (2025-08-06T19:11:33Z) - Preference Learning for AI Alignment: a Causal Perspective [55.2480439325792]
私たちはこの問題を因果パラダイムに枠組み化し、永続的な課題を特定するための因果関係の豊富なツールボックスを提供します。
因果推論の文献を継承し、信頼性の高い一般化に必要な重要な仮定を特定する。
そこで本研究では, 因果関係に基づくアプローチがモデルロバスト性をいかに改善するかを, ナイーブ報酬モデルの障害モードを例示する。
論文 参考訳(メタデータ) (2025-06-06T10:45:42Z) - Wait, that's not an option: LLMs Robustness with Incorrect Multiple-Choice Options [2.1184929769291294]
本研究は,LLMの命令追従能力と批判的推論とのバランスを評価するための新しいフレームワークを提案する。
トレーニング後のアライメントモデルでは,無効なオプションの選択がデフォルトとなることが多いが,ベースモデルでは,モデルサイズに合わせてスケールするリファリング機能が改善されている。
さらに、同様の指示追従バイアスを示す並列人間の研究を行い、これらのバイアスがアライメントに使用される人間のフィードバックデータセットを通してどのように伝播するかを示唆した。
論文 参考訳(メタデータ) (2024-08-27T19:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。