論文の概要: Human-Aware Belief Revision: A Cognitively Inspired Framework for Explanation-Guided Revision of Human Models
- arxiv url: http://arxiv.org/abs/2405.19238v2
- Date: Thu, 22 Aug 2024 14:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 19:15:36.387041
- Title: Human-Aware Belief Revision: A Cognitively Inspired Framework for Explanation-Guided Revision of Human Models
- Title(参考訳): ヒューマン・アウェア・リーフ・リビジョン(Human-Aware Belief Revision) : ヒューマンモデルの説明誘導リビジョンのための認知的インスパイアされたフレームワーク
- Authors: Stylianos Loukas Vasileiou, William Yeoh,
- Abstract要約: 我々は,人間の信念のリビジョンダイナミクスをモデル化するための認知にインスパイアされたフレームワークであるHuman-Aware Belief Revisionを紹介する。
実世界のシナリオ下で,我々の枠組みを実証的に評価するために,2つの人体実験を行った。
我々の発見は、我々の仮説を支持し、不整合を解決する際に人々が採用する戦略に関する洞察を与え、より効果的な人間対応AIシステムを開発するためのガイダンスを提供する。
- 参考スコア(独自算出の注目度): 4.2356833681644055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional belief revision frameworks often rely on the principle of minimalism, which advocates minimal changes to existing beliefs. However, research in human cognition suggests that people are inherently driven to seek explanations for inconsistencies, thereby striving for explanatory understanding rather than minimal changes when revising beliefs. Traditional frameworks often fail to account for these cognitive patterns, relying instead on formal principles that may not reflect actual human reasoning. To address this gap, we introduce Human-Aware Belief Revision, a cognitively-inspired framework for modeling human belief revision dynamics, where given a human model and an explanation for an explanandum, revises the model in a non-minimal way that aligns with human cognition. Finally, we conduct two human-subject studies to empirically evaluate our framework under real-world scenarios. Our findings support our hypotheses and provide insights into the strategies people employ when resolving inconsistencies, offering some guidance for developing more effective human-aware AI systems.
- Abstract(参考訳): 伝統的な信念修正の枠組みは、しばしば、既存の信念への最小限の変更を提唱するミニマリズムの原則に依存している。
しかし、人間の認知の研究は、人々が本質的に不整合の説明を求め、信念を改定する際の最小限の変化よりも説明的理解を求めることを示唆している。
伝統的なフレームワークはしばしばこれらの認知パターンを考慮せず、代わりに実際の人間の推論を反映しない形式的な原則に依存している。
このギャップに対処するために、人間の信念のリビジョンダイナミクスをモデル化するための認知にインスパイアされたフレームワークであるHuman-Aware Belief Revisionを導入する。
最後に,実世界のシナリオ下での枠組みを実証的に評価するために,2つの人体実験を行った。
我々の発見は、我々の仮説を支持し、不整合を解決する際に人々が採用する戦略に関する洞察を与え、より効果的な人間対応AIシステムを開発するためのガイダンスを提供する。
関連論文リスト
- Dual Thinking and Perceptual Analysis of Deep Learning Models using Human Adversarial Examples [5.022336433202968]
視覚における双対思考の知覚は、直感的および論理的処理からの推論が異なるイメージを必要とする。
我々は、人間の視覚における二重思考の枠組みの証拠を提供するために、敵対的データセットを導入する。
また,人間の視覚の計算モデルとして分類モデルを用いた場合の批判についても検討した。
論文 参考訳(メタデータ) (2024-06-11T05:50:34Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - RealBehavior: A Framework for Faithfully Characterizing Foundation
Models' Human-like Behavior Mechanisms [45.97077960079147]
本稿では,モデルのヒューマノイドな振る舞いを忠実に特徴付けるためのフレームワークであるRealBehaviorを紹介する。
本研究は, 心理的ツールのシンプルな応用は, すべての人間の行動に忠実に特徴付けることはできないことを示唆している。
論文 参考訳(メタデータ) (2023-10-17T12:58:17Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [60.244412212130264]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Towards Explaining Subjective Ground of Individuals on Social Media [28.491401997248527]
本研究は、個人の主観的根拠を学習し、ソーシャルメディアに投稿された他人の状況を判断する神経モデルを提案する。
簡単な注意モジュールと過去の活動を考慮に入れた上で,我々のモデルは,社会的状況を判断する際の個人の主観的嗜好について,人間可読な説明を提供することを実証的に示す。
論文 参考訳(メタデータ) (2022-11-18T00:29:05Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Cognitive Argumentation and the Suppression Task [1.027974860479791]
本稿では,認知論(Cognitive Argumentation)と呼ばれる新たなフレームワークにおいて,人間の推論をモデル化する上での課題について述べる。
このフレームワークは認知科学における経験的および理論的研究に基づく認知原理に依存しており、AIから計算議論の一般的かつ抽象的な枠組みを適応させる。
我々は、認知論は、人間の条件推論に一貫性があり、認知的に適切なモデルを提供すると論じている。
論文 参考訳(メタデータ) (2020-02-24T10:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。