論文の概要: The Dual Role of Abstracting over the Irrelevant in Symbolic Explanations: Cognitive Effort vs. Understanding
- arxiv url: http://arxiv.org/abs/2602.03467v1
- Date: Tue, 03 Feb 2026 12:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.446373
- Title: The Dual Role of Abstracting over the Irrelevant in Symbolic Explanations: Cognitive Effort vs. Understanding
- Title(参考訳): 象徴的説明における無関係な抽象の二重的役割:認知的努力と理解
- Authors: Zeynep G. Saribatur, Johannes Langer, Ute Schmid,
- Abstract要約: 説明は人間の認知の中心であるが、AIシステムは理解が難しいアウトプットを生成することが多い。
正式な抽象化、特に除去とクラスタリングが人間の推論性能と認知活動にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 5.17306267654726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanations are central to human cognition, yet AI systems often produce outputs that are difficult to understand. While symbolic AI offers a transparent foundation for interpretability, raw logical traces often impose a high extraneous cognitive load. We investigate how formal abstractions, specifically removal and clustering, impact human reasoning performance and cognitive effort. Utilizing Answer Set Programming (ASP) as a formal framework, we define a notion of irrelevant details to be abstracted over to obtain simplified explanations. Our cognitive experiments, in which participants classified stimuli across domains with explanations derived from an answer set program, show that clustering details significantly improve participants' understanding, while removal of details significantly reduce cognitive effort, supporting the hypothesis that abstraction enhances human-centered symbolic explanations.
- Abstract(参考訳): 説明は人間の認知の中心であるが、AIシステムは理解が難しいアウトプットを生成することが多い。
シンボリックAIは、解釈可能性の透明な基盤を提供するが、生の論理的トレースは、しばしば高度な認知的負荷を課す。
正式な抽象化、特に除去とクラスタリングが人間の推論性能と認知活動にどのように影響するかを検討する。
ASP(Answer Set Programming)を形式的なフレームワークとして利用し、単純化された説明を得るために抽象化すべき無関係な詳細の概念を定義します。
我々の認知実験では、参加者が回答セットプログラムから導かれた説明によってドメイン間での刺激を分類し、クラスタリングの詳細が参加者の理解を著しく改善する一方、詳細の除去は認知力を著しく低下させ、抽象化が人間中心の象徴的説明を促進するという仮説を支持する。
関連論文リスト
- How do Transformers Learn Implicit Reasoning? [67.02072851088637]
制御されたシンボリック環境下でトランスフォーマーをスクラッチからトレーニングすることで、暗黙のマルチホップ推論がどのように現れるかを研究する。
原子三重項によるトレーニングは必要ではなく学習を加速し,第2ホップの一般化は特定の構成構造へのクエリレベル露出に依存する。
論文 参考訳(メタデータ) (2025-05-29T17:02:49Z) - Abductive Symbolic Solver on Abstraction and Reasoning Corpus [5.903948032748941]
人間は自分の観察と仮説に基づいて視覚的推論タスクを解く。
これまでのアプローチはグリッド移行のみに重点を置いていたため、AIが合理的で人間的なソリューションを提供するには不十分だった。
本稿では,観測されたデータを知識グラフに象徴的に表現し,ソリューション生成に使用できるコア知識を抽出する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-27T09:09:00Z) - Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - An Information Bottleneck Characterization of the Understanding-Workload
Tradeoff [15.90243405031747]
説明可能なAI(XAI)設計において、説明の有効性に影響を及ぼす人的要因の考察が重要である。
XAIの既存の作業は、さまざまなタイプの説明によって引き起こされる理解と作業負荷のトレードオフを実証している。
論文 参考訳(メタデータ) (2023-10-11T18:35:26Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Learning Differentiable Logic Programs for Abstract Visual Reasoning [22.167393386879294]
微分フォワード推論は、勾配に基づく機械学習パラダイムと推論を統合するために開発された。
NEUMANNはグラフベースの微分可能フォワード推論器で、メッセージをメモリ効率のよい方法で送信し、構造化プログラムを関手で処理する。
NEUMANNは視覚的推論タスクを効率的に解き、神経、象徴的、神経-象徴的ベースラインを上回ります。
論文 参考訳(メタデータ) (2023-07-03T11:02:40Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A Closer Look at Reward Decomposition for High-Level Robotic
Explanations [18.019811754800767]
本稿では、報酬分解と抽象的な行動空間を組み合わせたQ-Map学習フレームワークを提案する。
本稿では,2つのロボットシナリオの定量的,定性的な分析を通じて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T16:01:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。