論文の概要: Realistic threat perception drives intergroup conflict: A causal, dynamic analysis using generative-agent simulations
- arxiv url: http://arxiv.org/abs/2512.17066v1
- Date: Thu, 18 Dec 2025 21:06:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.172109
- Title: Realistic threat perception drives intergroup conflict: A causal, dynamic analysis using generative-agent simulations
- Title(参考訳): 現実主義的脅威認識は集団間衝突を促進する:生成エージェントシミュレーションを用いた因果的動的解析
- Authors: Suhaib Abdurahman, Farzan Karimi-Malekabadi, Chenxiao Yu, Nour S. Kteily, Morteza Dehghani,
- Abstract要約: 現実的な脅威は直接敵意を高めるが、象徴的な脅威効果はより弱く、内集団バイアスによって完全に媒介され、現実的な脅威が欠如している場合にのみ敵意を高める。
非敵間接触バッファはエスカレーションし、構造的非対称性は多数派間の敵意に集中する。
- 参考スコア(独自算出の注目度): 1.3574266659501533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human conflict is often attributed to threats against material conditions and symbolic values, yet it remains unclear how they interact and which dominates. Progress is limited by weak causal control, ethical constraints, and scarce temporal data. We address these barriers using simulations of large language model (LLM)-driven agents in virtual societies, independently varying realistic and symbolic threat while tracking actions, language, and attitudes. Representational analyses show that the underlying LLM encodes realistic threat, symbolic threat, and hostility as distinct internal states, that our manipulations map onto them, and that steering these states causally shifts behavior. Our simulations provide a causal account of threat-driven conflict over time: realistic threat directly increases hostility, whereas symbolic threat effects are weaker, fully mediated by ingroup bias, and increase hostility only when realistic threat is absent. Non-hostile intergroup contact buffers escalation, and structural asymmetries concentrate hostility among majority groups.
- Abstract(参考訳): 人間の対立は、しばしば物質的条件や象徴的な価値観に対する脅威によるものと考えられているが、どのように相互作用し、どの状態が支配されるかは定かではない。
進行は、因果制御の弱さ、倫理的制約、時間的データ不足によって制限される。
本研究では,大規模言語モデル(LLM)による仮想社会におけるエージェントのシミュレーションを用いて,行動・言語・態度を追尾しながら,現実的・象徴的な脅威を独立に変化させることにより,これらの障壁に対処する。
表現的分析により、LLMは現実的な脅威、象徴的な脅威、敵意を異なる内部状態として符号化し、我々の操作がそれらにマップされ、これらの状態が因果的に行動を変えることを示した。
現実的な脅威は直接敵意を増すが、象徴的な脅威効果はより弱く、内集団バイアスによって完全に媒介され、現実的な脅威が欠如している場合にのみ敵意を増す。
非敵間接触バッファはエスカレーションし、構造的非対称性は多数派間の敵意に集中する。
関連論文リスト
- Diffusion Guided Adversarial State Perturbations in Reinforcement Learning [33.206020320762576]
強化学習システムは敵の攻撃に弱い。
政策に依存しない拡散型状態摂動攻撃である ShiFT を提案する。
我々の攻撃は、検出を避けるために現実的かつ歴史に整合したまま、真の状態と意味的に異なる状態を生成することができる。
論文 参考訳(メタデータ) (2025-11-10T23:52:21Z) - DeceptionBench: A Comprehensive Benchmark for AI Deception Behaviors in Real-world Scenarios [57.327907850766785]
現実的な現実のシナリオにまたがる騙しのキャラクタリゼーションは未解明のままである。
DeceptionBenchは、さまざまなドメインにまたがる認知傾向を体系的に評価する最初のベンチマークです。
本研究は,本質的な側面から,ユーザ満足度を優先する自己関心のエゴスティックな傾向を示すモデルや,サイコファンティックな行動を示すモデルについて検討する。
実世界のフィードバックダイナミクスのより現実的なシミュレーションを構築するために,持続的マルチターン相互作用ループを組み込んだ。
論文 参考訳(メタデータ) (2025-10-17T10:14:26Z) - DecompGAIL: Learning Realistic Traffic Behaviors with Decomposed Multi-Agent Generative Adversarial Imitation Learning [59.63038625580992]
既存の模倣学習アプローチは、しばしば現実的な交通行動のモデル化に失敗する。
本稿では,現実性をエゴマップとエゴ隣接コンポーネントに明示的に分解するDecompGAILを提案する。
DecompGAILは、WOMD Sim Agents 2025ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-08T11:46:39Z) - AgentZero++: Modeling Fear-Based Behavior [4.783433971864009]
我々は,集団暴力をシミュレートするための認知,感情,社会的メカニズムを統合したエージェントベースモデルであるAgentZero++を提案する。
EpsteinのAgent_Zeroフレームワークをベースにして、8つの振る舞い拡張でオリジナルのモデルを拡張します。
これらの追加により、エージェントは内部の状態、以前の経験、社会的フィードバックに基づいて適応できる。
論文 参考訳(メタデータ) (2025-10-05T22:33:56Z) - Time-To-Inconsistency: A Survival Analysis of Large Language Model Robustness to Adversarial Attacks [8.86745721473138]
対話型AIの強靭性に関する総合的サバイバル分析を行い,9つの最先端LCMの会話を36,951回解析した。
突発的,即発的(prompt-to-prompt)なセマンティックドリフトは破滅的であり,会話障害の危険性を劇的に高める。
相互作用を持つAFTモデルは優れた性能を示し、優れた識別と例外的な校正を実現している。
論文 参考訳(メタデータ) (2025-10-03T04:26:10Z) - Universal Camouflage Attack on Vision-Language Models for Autonomous Driving [67.34987318443761]
自動運転のためのビジュアル言語モデリングが、有望な研究方向として浮上している。
VLM-ADは、敵の攻撃による深刻なセキュリティ脅威に弱いままである。
VLM-ADのための最初のユニバーサルカモフラージュ攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-24T14:52:01Z) - Real-Time Detection of Insider Threats Using Behavioral Analytics and Deep Evidential Clustering [0.0]
本稿では,行動分析と深層的クラスタリングを組み合わせた,インサイダー脅威をリアルタイムに検出するフレームワークを提案する。
本システムは,ユーザの行動を捉え,分析し,文脈に富んだ行動特徴を適用し,潜在的な脅威を分類する。
我々は,CERTやTWOSなどのベンチマークインサイダー脅威データセットについて,平均検出精度94.7%,偽陽性率38%を従来のクラスタリング手法と比較し評価した。
論文 参考訳(メタデータ) (2025-05-21T11:21:33Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。