論文の概要: Explanation-based Belief Revision: Moving Beyond Minimalism to Explanatory Understanding
- arxiv url: http://arxiv.org/abs/2405.19238v1
- Date: Wed, 29 May 2024 16:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 16:21:56.702084
- Title: Explanation-based Belief Revision: Moving Beyond Minimalism to Explanatory Understanding
- Title(参考訳): 解説に基づく信念再考:ミニマリズムを超えて説明的理解へ
- Authors: Stylianos Loukas Vasileiou, William Yeoh,
- Abstract要約: 信念の改訂において、エージェントは通常、それらと矛盾する新しい情報を受け取るときに、彼らの信念を変更する。
本稿では,説明文を保存し,必ずしも最小限ではない方法で信念ベースを改訂する,斬新で単純な信念リビジョン演算子を提案する。
本研究は, 説明仮説を支持し, 不整合解消時に採用する戦略について考察した。
- 参考スコア(独自算出の注目度): 4.2356833681644055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In belief revision, agents typically modify their beliefs when they receive some new piece of information that is in conflict with them. The guiding principle behind most belief revision frameworks is that of minimalism, which advocates minimal changes to existing beliefs. However, minimalism may not necessarily capture the nuanced ways in which human agents reevaluate and modify their beliefs. In contrast, the explanatory hypothesis indicates that people are inherently driven to seek explanations for inconsistencies, thereby striving for explanatory coherence rather than minimal changes when revising beliefs. Our contribution in this paper is two-fold. Motivated by the explanatory hypothesis, we first present a novel, yet simple belief revision operator that, given a belief base and an explanation for an explanandum, it revises the belief bases in a manner that preserves the explanandum and is not necessarily minimal. We call this operator explanation-based belief revision. Second, we conduct two human-subject studies to empirically validate our approach and investigate belief revision behavior in real-world scenarios. Our findings support the explanatory hypothesis and provide insights into the strategies people employ when resolving inconsistencies.
- Abstract(参考訳): 信念の改訂において、エージェントは通常、それらと矛盾する新しい情報を受け取るときに、彼らの信念を変更する。
ほとんどの信念修正フレームワークの背後にある原則は、既存の信念への最小限の変更を提唱するミニマリズムである。
しかし、ミニマリズムは必ずしも人間のエージェントが自分の信念を再評価し、修正するニュアンスな方法を捉えているとは限らない。
対照的に、説明的仮説は、人々が本質的に不整合の説明を求め、信念を改定する際の最小限の変化よりも説明的一貫性を追求していることを示している。
この論文への私たちの貢献は2倍です。
説明的仮説に触発されて、まず、信念ベースと説明書の説明を与えられた上で、説明文を保存し、必ずしも最小限ではない方法で信念ベースを改訂する、斬新で単純な信念修正演算子を提示する。
我々はこの操作者の説明に基づく信念の改訂と呼ぶ。
第2に,我々のアプローチを実証的に検証し,現実のシナリオにおける信念修正行動を調べるために,2つの人体実験を行った。
本研究は, 説明仮説を支持し, 不整合解消時に採用する戦略について考察した。
関連論文リスト
- Human-like conceptual representations emerge from language prediction [72.5875173689788]
大型言語モデル(LLM)における人間に似た概念表現の出現について検討した。
その結果、LLMは定義記述から概念を推論し、共有された文脈に依存しない構造に収束する表現空間を構築することができた。
我々の研究は、LLMが複雑な人間の認知を理解するための貴重なツールであり、人工知能と人間の知能の整合性を高めるための道を開くという見解を支持している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - RealBehavior: A Framework for Faithfully Characterizing Foundation
Models' Human-like Behavior Mechanisms [45.97077960079147]
本稿では,モデルのヒューマノイドな振る舞いを忠実に特徴付けるためのフレームワークであるRealBehaviorを紹介する。
本研究は, 心理的ツールのシンプルな応用は, すべての人間の行動に忠実に特徴付けることはできないことを示唆している。
論文 参考訳(メタデータ) (2023-10-17T12:58:17Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Towards Explaining Subjective Ground of Individuals on Social Media [28.491401997248527]
本研究は、個人の主観的根拠を学習し、ソーシャルメディアに投稿された他人の状況を判断する神経モデルを提案する。
簡単な注意モジュールと過去の活動を考慮に入れた上で,我々のモデルは,社会的状況を判断する際の個人の主観的嗜好について,人間可読な説明を提供することを実証的に示す。
論文 参考訳(メタデータ) (2022-11-18T00:29:05Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Cognitive Argumentation and the Suppression Task [1.027974860479791]
本稿では,認知論(Cognitive Argumentation)と呼ばれる新たなフレームワークにおいて,人間の推論をモデル化する上での課題について述べる。
このフレームワークは認知科学における経験的および理論的研究に基づく認知原理に依存しており、AIから計算議論の一般的かつ抽象的な枠組みを適応させる。
我々は、認知論は、人間の条件推論に一貫性があり、認知的に適切なモデルを提供すると論じている。
論文 参考訳(メタデータ) (2020-02-24T10:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。