論文の概要: The Effect of Belief Boxes and Open-mindedness on Persuasion
- arxiv url: http://arxiv.org/abs/2512.06573v1
- Date: Sat, 06 Dec 2025 21:31:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.414798
- Title: The Effect of Belief Boxes and Open-mindedness on Persuasion
- Title(参考訳): 信念箱とオープンマインドネスが説得に及ぼす影響
- Authors: Onur Bilgin, Abdullah As Sami, Sriram Sai Vujjini, John Licato,
- Abstract要約: 本研究では,信念の主張と強みを取り入れることで,エージェントの反対の視点に対する抵抗(および説得力)に影響を及ぼすことを示す。
また, エージェントが反対の視点で議論に勝っている場合, 信念の変化の可能性にも影響することを示した。
提案手法の有効性と妥当性を考察し,提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 2.379911867541422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As multi-agent systems are increasingly utilized for reasoning and decision-making applications, there is a greater need for LLM-based agents to have something resembling propositional beliefs. One simple method for doing so is to include statements describing beliefs maintained in the prompt space (in what we'll call their belief boxes). But when agents have such statements in belief boxes, how does it actually affect their behaviors and dispositions towards those beliefs? And does it significantly affect agents' ability to be persuasive in multi-agent scenarios? Likewise, if the agents are given instructions to be open-minded, how does that affect their behaviors? We explore these and related questions in a series of experiments. Our findings confirm that instructing agents to be open-minded affects how amenable they are to belief change. We show that incorporating belief statements and their strengths influences an agent's resistance to (and persuasiveness against) opposing viewpoints. Furthermore, it affects the likelihood of belief change, particularly when the agent is outnumbered in a debate by opposing viewpoints, i.e., peer pressure scenarios. The results demonstrate the feasibility and validity of the belief box technique in reasoning and decision-making tasks.
- Abstract(参考訳): マルチエージェントシステムは、推論や意思決定の応用にますます活用されているため、LLMベースのエージェントは命題的信念に似たものを持つ必要がある。
そのような方法の1つの単純な方法は、プロンプト空間で維持される信念(その信念ボックスと呼ぶもの)を記述することを含むことである。
しかし、エージェントが信条箱にそのような言明がある場合、その信条に対する行動や処分にどのように影響を与えるのか?
エージェントがマルチエージェントシナリオで説得力を持つ能力には、大きな影響があるのだろうか?
同様に、エージェントがオープン志向の指示を受けた場合、それは彼らの行動にどのように影響しますか?
我々はこれらの質問と関連する質問を一連の実験で探求する。
以上の結果から,オープン志向のエージェントの指導が,信念の変化にどのような影響があるかが明らかとなった。
本研究では,信念の主張と強みを取り入れることで,エージェントの反対の視点に対する抵抗(および説得力)に影響を及ぼすことを示す。
さらに、特にエージェントが対立する視点、すなわちピアプレッシャーのシナリオによって議論で劣っている場合、それは信念の変化の可能性に影響を与える。
提案手法の有効性と妥当性を考察し,提案手法の有効性を検証した。
関連論文リスト
- When AI Gets Persuaded, Humans Follow: Inducing the Conformity Effect in Persuasive Dialogue [0.8594140167290097]
本研究では,人間とともに説得される「ペルサデエージェント」について紹介する。
テキストを用いた対話実験を行った。
Persuadee Agentが説得を受け入れると、説得力と実際の態度が著しく改善した。
論文 参考訳(メタデータ) (2025-10-05T14:37:46Z) - Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Belief Attribution as Mental Explanation: The Role of Accuracy, Informativity, and Causality [42.943294683967046]
我々は、人々が観察する行動によい説明である信念を属性にすることを好んでいるという仮説を考察する。
本研究では,エージェントの信念に関する(自然言語)文の説明的強度を定量化する計算モデルを開発する。
このモデルを用いて,信念を他のエージェントに選択的に属性づけする方法について,各要因の役割について検討した。
論文 参考訳(メタデータ) (2025-05-26T00:21:38Z) - Rejecting Hallucinated State Targets during Planning [84.179112256683]
計画過程において、生成的または予測的モデルは、期待される状態や望ましい状態の集合を表す「ターゲット」を提案するためにしばしば用いられる。
残念ながら、学習したモデルは必然的に幻覚を与え、妄想的な行動や安全上の懸念を引き起こす可能性がある。
我々は、目標実現可能性評価器を学習することで、実現不可能な目標を特定し、拒否する戦略を考案する。
論文 参考訳(メタデータ) (2024-10-09T17:35:25Z) - The Earth is Flat because...: Investigating LLMs' Belief towards Misinformation via Persuasive Conversation [23.39754835621968]
大規模な言語モデル(LLM)は膨大な量の知識をカプセル化しているが、それでも外部の誤情報に弱いままである。
説得的対話におけるLLMの信念変化を追跡するためのテストフレームワークを開発する。
LLMの事実知識に対する正しい信念は、様々な説得的戦略によって容易に操作できることがわかった。
論文 参考訳(メタデータ) (2023-12-14T16:16:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。