論文の概要: Explanation-based Belief Revision: Moving Beyond Minimalism to Explanatory Understanding
- arxiv url: http://arxiv.org/abs/2405.19238v1
- Date: Wed, 29 May 2024 16:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 16:21:56.702084
- Title: Explanation-based Belief Revision: Moving Beyond Minimalism to Explanatory Understanding
- Title(参考訳): 解説に基づく信念再考:ミニマリズムを超えて説明的理解へ
- Authors: Stylianos Loukas Vasileiou, William Yeoh,
- Abstract要約: 信念の改訂において、エージェントは通常、それらと矛盾する新しい情報を受け取るときに、彼らの信念を変更する。
本稿では,説明文を保存し,必ずしも最小限ではない方法で信念ベースを改訂する,斬新で単純な信念リビジョン演算子を提案する。
本研究は, 説明仮説を支持し, 不整合解消時に採用する戦略について考察した。
- 参考スコア(独自算出の注目度): 4.2356833681644055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In belief revision, agents typically modify their beliefs when they receive some new piece of information that is in conflict with them. The guiding principle behind most belief revision frameworks is that of minimalism, which advocates minimal changes to existing beliefs. However, minimalism may not necessarily capture the nuanced ways in which human agents reevaluate and modify their beliefs. In contrast, the explanatory hypothesis indicates that people are inherently driven to seek explanations for inconsistencies, thereby striving for explanatory coherence rather than minimal changes when revising beliefs. Our contribution in this paper is two-fold. Motivated by the explanatory hypothesis, we first present a novel, yet simple belief revision operator that, given a belief base and an explanation for an explanandum, it revises the belief bases in a manner that preserves the explanandum and is not necessarily minimal. We call this operator explanation-based belief revision. Second, we conduct two human-subject studies to empirically validate our approach and investigate belief revision behavior in real-world scenarios. Our findings support the explanatory hypothesis and provide insights into the strategies people employ when resolving inconsistencies.
- Abstract(参考訳): 信念の改訂において、エージェントは通常、それらと矛盾する新しい情報を受け取るときに、彼らの信念を変更する。
ほとんどの信念修正フレームワークの背後にある原則は、既存の信念への最小限の変更を提唱するミニマリズムである。
しかし、ミニマリズムは必ずしも人間のエージェントが自分の信念を再評価し、修正するニュアンスな方法を捉えているとは限らない。
対照的に、説明的仮説は、人々が本質的に不整合の説明を求め、信念を改定する際の最小限の変化よりも説明的一貫性を追求していることを示している。
この論文への私たちの貢献は2倍です。
説明的仮説に触発されて、まず、信念ベースと説明書の説明を与えられた上で、説明文を保存し、必ずしも最小限ではない方法で信念ベースを改訂する、斬新で単純な信念修正演算子を提示する。
我々はこの操作者の説明に基づく信念の改訂と呼ぶ。
第2に,我々のアプローチを実証的に検証し,現実のシナリオにおける信念修正行動を調べるために,2つの人体実験を行った。
本研究は, 説明仮説を支持し, 不整合解消時に採用する戦略について考察した。
関連論文リスト
- Dual Thinking and Perceptual Analysis of Deep Learning Models using Human Adversarial Examples [5.022336433202968]
視覚における双対思考の知覚は、直感的および論理的処理からの推論が異なるイメージを必要とする。
我々は、人間の視覚における二重思考の枠組みの証拠を提供するために、敵対的データセットを導入する。
また,人間の視覚の計算モデルとして分類モデルを用いた場合の批判についても検討した。
論文 参考訳(メタデータ) (2024-06-11T05:50:34Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - RealBehavior: A Framework for Faithfully Characterizing Foundation
Models' Human-like Behavior Mechanisms [45.97077960079147]
本稿では,モデルのヒューマノイドな振る舞いを忠実に特徴付けるためのフレームワークであるRealBehaviorを紹介する。
本研究は, 心理的ツールのシンプルな応用は, すべての人間の行動に忠実に特徴付けることはできないことを示唆している。
論文 参考訳(メタデータ) (2023-10-17T12:58:17Z) - Towards Explaining Subjective Ground of Individuals on Social Media [28.491401997248527]
本研究は、個人の主観的根拠を学習し、ソーシャルメディアに投稿された他人の状況を判断する神経モデルを提案する。
簡単な注意モジュールと過去の活動を考慮に入れた上で,我々のモデルは,社会的状況を判断する際の個人の主観的嗜好について,人間可読な説明を提供することを実証的に示す。
論文 参考訳(メタデータ) (2022-11-18T00:29:05Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Cognitive Argumentation and the Suppression Task [1.027974860479791]
本稿では,認知論(Cognitive Argumentation)と呼ばれる新たなフレームワークにおいて,人間の推論をモデル化する上での課題について述べる。
このフレームワークは認知科学における経験的および理論的研究に基づく認知原理に依存しており、AIから計算議論の一般的かつ抽象的な枠組みを適応させる。
我々は、認知論は、人間の条件推論に一貫性があり、認知的に適切なモデルを提供すると論じている。
論文 参考訳(メタデータ) (2020-02-24T10:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。