論文の概要: Programmable Cognitive Bias in Social Agents
- arxiv url: http://arxiv.org/abs/2509.13588v1
- Date: Tue, 16 Sep 2025 23:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.671038
- Title: Programmable Cognitive Bias in Social Agents
- Title(参考訳): 社会的エージェントにおけるプログラム型認知バイアス
- Authors: Xuan Liu, Haoyang Shang, Haojian Jin,
- Abstract要約: CoBRAは, LLMに基づく社会シミュレーションにおいて, エージェントの挙動を体系的に特定するための新しいツールキットである。
CoBRAは、エージェントの期待する振る舞いを古典的な社会科学実験を用いて根拠付けることによって、プログラムエージェントの認知バイアスを明確にする新しいアプローチを提案する。
以上の結果から,CoBRAはモデルに依存しない方法で,社会的エージェントに示される認知バイアスを正確にプログラムできる可能性が示唆された。
- 参考スコア(独自算出の注目度): 10.836092325757784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces CoBRA, a novel toolkit for systematically specifying agent behavior in LLM-based social simulation. We found that conventional approaches that specify agent behaviors through implicit natural language descriptions cannot yield consistent behaviors across models, and the produced agent behaviors do not capture the nuances of the descriptions. In contrast, CoBRA presents a new approach to program agents' cognitive biases explicitly, by grounding agents' expected behaviors using classic social science experiments. CoBRA has two components: (1) Cognitive Bias Index that measures the cognitive bias of a social agent, by quantifying the agent's reactions in a set of validated classical social science experiments; (2) Behavioral Regulation Engine that aligns the agent's behavior to demonstrate controlled cognitive bias. We evaluated CoBRA as an HCI toolkit through demonstration and technical benchmarks. Our results suggest that CoBRA can precisely program the cognitive bias demonstrated in a social agent in a model-agnostic manner.
- Abstract(参考訳): 本稿では, LLMに基づく社会シミュレーションにおいて, エージェントの振る舞いを体系的に特定するための新しいツールキットであるCoBRAを紹介する。
その結果、暗黙的な自然言語記述を通してエージェントの動作を特定する従来の手法では、モデル間で一貫した動作は得られず、生成したエージェントの動作は記述のニュアンスを捉えないことがわかった。
対照的に、CoBRAは、古典的な社会科学実験を用いてエージェントの期待する振る舞いを根拠にすることにより、エージェントの認知バイアスを明示的にプログラムする新しいアプローチを提示している。
認知バイアス指数(CoBRA)は,(1)実証された古典社会科学実験の集合においてエージェントの反応を定量化することにより,社会的エージェントの認知バイアスを測定する。
実証および技術ベンチマークにより,CoBRAをHCIツールキットとして評価した。
以上の結果から,CoBRAはモデルに依存しない方法で,社会的エージェントに示される認知バイアスを正確にプログラムできる可能性が示唆された。
関連論文リスト
- Model Editing as a Double-Edged Sword: Steering Agent Ethical Behavior Toward Beneficence or Harm [57.00627691433355]
我々は、モデル編集タスクとしてエージェントの行動ステアリングをフレーム化し、振舞い編集という。
心理学的道徳理論に基づくベンチマークであるBehaviorBenchを紹介する。
行動編集は倫理的・好意的な行動を促進するためにも、逆に有害な行動や悪意のある行動を引き起こすためにも利用できることを実証する。
論文 参考訳(メタデータ) (2025-06-25T16:51:51Z) - Building a Cognitive Twin Using a Distributed Cognitive System and an Evolution Strategy [0.5586073503694489]
身体的, 仮想的に多数のデバイスを編成し, 対話行動の近似を良好に行うことが可能であることを示す。
生成されたCognitive Twinは、後にタスクの自動化、より現実的な人間のような人工エージェントの生成、さらにその振る舞いを調べるために使われる。
論文 参考訳(メタデータ) (2025-02-03T21:19:13Z) - Generative Agent Simulations of 1,000 People [56.82159813294894]
本稿では,1,052人の実人の態度と行動をシミュレートする新しいエージェントアーキテクチャを提案する。
生成エージェントは一般社会調査の参加者の回答を85%の精度で再現する。
我々のアーキテクチャは、人種的およびイデオロギー的グループにおける正確さのバイアスを、人口統計学的記述のエージェントと比較して低減する。
論文 参考訳(メタデータ) (2024-11-15T11:14:34Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - CAMMARL: Conformal Action Modeling in Multi Agent Reinforcement Learning [5.865719902445064]
本稿では,新しいマルチエージェント強化学習アルゴリズムCAMMARLを提案する。
それは、異なる状況における他のエージェントのアクションを、自信集合の形でモデル化することを含む。
本稿では,CAMMARLが共形予測セットをモデル化することにより,MARLにおける自律エージェントの能力を高めることを示す。
論文 参考訳(メタデータ) (2023-06-19T19:03:53Z) - Knowledge-based Reasoning and Learning under Partial Observability in Ad
Hoc Teamwork [4.454557728745761]
本稿では,非単調な論理的推論に基づいてアドホックエージェントの動作を決定するアーキテクチャを提案する。
これは、他のエージェントの行動を予測するモデルのオンライン選択、適応、学習をサポートする。
単純なシナリオと複雑なシナリオの両方において、アーキテクチャのパフォーマンスが、最先端のデータ駆動ベースラインと同等か、あるいは同等であることを示す。
論文 参考訳(メタデータ) (2023-06-01T15:21:27Z) - Bandit Social Learning: Exploration under Myopic Behavior [54.767961587919075]
オンラインプラットフォーム上でのレビューによって動機付けられた社会学習のダイナミクスについて検討する。
エージェントはまとめて単純なマルチアームのバンディットプロトコルに従うが、各エージェントは探索を伴わずにミオプティカルに振る舞う。
このような振る舞いに対して,スターク学習の失敗を導出し,好意的な結果を提供する。
論文 参考訳(メタデータ) (2023-02-15T01:57:57Z) - Group Cohesion in Multi-Agent Scenarios as an Emergent Behavior [0.0]
本研究は,グループ・アフィリエイト,確実性,能力に対する本質的なニーズを持つインバインエージェントが,エージェント間の社会的行動の出現につながることを示す。
この行動は、グループ内のエージェントに対する利他主義と、グループ外のエージェントに対する敵対的な傾向を表現している。
論文 参考訳(メタデータ) (2022-11-03T18:37:05Z) - Learning Complex Spatial Behaviours in ABM: An Experimental
Observational Study [0.0]
本稿では,創発的エージェント行動の生成にReinforcement Learningを適用する方法について検討する。
一連のシミュレーションを行ない, エージェントが実世界の知的適応行動の特性を示す方法として, プロクサマルポリシー最適化アルゴリズムを用いて訓練されたことを実証した。
論文 参考訳(メタデータ) (2022-01-04T11:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。