論文の概要: How Do People Revise Inconsistent Beliefs? Examining Belief Revision in Humans with User Studies
- arxiv url: http://arxiv.org/abs/2506.09977v1
- Date: Wed, 11 Jun 2025 17:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.180689
- Title: How Do People Revise Inconsistent Beliefs? Examining Belief Revision in Humans with User Studies
- Title(参考訳): 人々が一貫性のない信念をどう修正するか : ユーザ・スタディによる人間における信念の見直しから
- Authors: Stylianos Loukas Vasileiou, Antonio Rago, Maria Vanina Martinez, William Yeoh,
- Abstract要約: 我々は、古典的信念変化理論よりも説明に基づく改訂を一貫して好んでいることを示す。
これらの発見は、人間の推論をモデル化したり、人間と対話するように設計されたAIシステムに影響を及ぼす。
- 参考スコア(独自算出の注目度): 8.208446026336407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how humans revise their beliefs in light of new information is crucial for developing AI systems which can effectively model, and thus align with, human reasoning. While theoretical belief revision frameworks rely on a set of principles that establish how these operations are performed, empirical evidence from cognitive psychology suggests that people may follow different patterns when presented with conflicting information. In this paper, we present three comprehensive user studies showing that people consistently prefer explanation-based revisions, i.e., those which are guided by explanations, that result in changes to their belief systems that are not necessarily captured by classical belief change theory. Our experiments systematically investigate how people revise their beliefs with explanations for inconsistencies, whether they are provided with them or left to formulate them themselves, demonstrating a robust preference for what may seem non-minimal revisions across different types of scenarios. These findings have implications for AI systems designed to model human reasoning or interact with humans, suggesting that such systems should accommodate explanation-based, potentially non-minimal belief revision operators to better align with human cognitive processes.
- Abstract(参考訳): 人間が新しい情報に照らして信念をどう修正するかを理解することは、人間の推論を効果的にモデル化し、従うことができるAIシステムの開発に不可欠である。
理論的信念修正フレームワークは、これらの操作の実施方法を確立する一連の原則に依存しているが、認知心理学の実証的な証拠は、人々が矛盾する情報を提示する際に異なるパターンに従う可能性があることを示唆している。
本稿では,従来の信念変化理論によって必ずしも捉えられていない信念体系の変化をもたらす説明に基づくリビジョン,すなわち説明によって導かれるリビジョンを,人々が一貫して好むことを示す3つの総合的ユーザスタディを示す。
実験では,人々が不整合の説明によって信念をどう修正するかを体系的に検討し,異なるシナリオにまたがる最小限の修正のように見えるものに対する堅牢な選好を示す。
これらの発見は、人間の推論をモデル化したり、人間と対話するために設計されたAIシステムに影響を及ぼす。
関連論文リスト
- Human-Aware Belief Revision: A Cognitively Inspired Framework for Explanation-Guided Revision of Human Models [4.2356833681644055]
我々は,人間の信念のリビジョンダイナミクスをモデル化するための認知にインスパイアされたフレームワークであるHuman-Aware Belief Revisionを紹介する。
実世界のシナリオ下で,我々の枠組みを実証的に評価するために,2つの人体実験を行った。
我々の発見は、我々の仮説を支持し、不整合を解決する際に人々が採用する戦略に関する洞察を与え、より効果的な人間対応AIシステムを開発するためのガイダンスを提供する。
論文 参考訳(メタデータ) (2024-05-29T16:20:51Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Crystal: Introspective Reasoners Reinforced with Self-Feedback [118.53428015478957]
本稿では,イントロスペクティブ・コモンセンス推論器であるCrystalを開発するための新しい手法を提案する。
コモンセンス問題に対処するため、まず与えられた質問に関連する知識ステートメントのイントロスペクションを行い、その後、それまでのイントロスペクションされた知識に根ざした情報予測を行う。
実験により、クリスタルは標準的な微調整法と連鎖蒸留法の両方で著しく優れており、コモンセンス推論プロセスの透明性を高めていることが示された。
論文 参考訳(メタデータ) (2023-10-07T21:23:58Z) - Explanations, Fairness, and Appropriate Reliance in Human-AI Decision-Making [10.049226270783562]
特徴に基づく説明がAIによる意思決定の分配的公平性に及ぼす影響について検討する。
以上の結果から,説明は公正感に影響を及ぼし,人間のAI推奨に固執する傾向に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2022-09-23T19:10:59Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - On the Interaction of Belief Bias and Explanations [4.211128681972148]
我々は,信念バイアスの概観,人的評価における役割,そしてNLP実践者の考え方について述べる。
本研究では,評価における信念バイアスを考慮に入れることの重要性を指摘しながら,このような制御を導入する際に,最高性能の手法に関する結論が変化することを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。