論文の概要: How Causal Abstraction Underpins Computational Explanation
- arxiv url: http://arxiv.org/abs/2508.11214v1
- Date: Fri, 15 Aug 2025 04:46:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.74827
- Title: How Causal Abstraction Underpins Computational Explanation
- Title(参考訳): 因果的抽象化が計算的説明にどのように影響するか
- Authors: Atticus Geiger, Jacqueline Harding, Thomas Icard,
- Abstract要約: 我々は、因果的抽象の理論がこの話題に実りあるレンズを与えていると論じる。
ニューラルネットワークを用いたディープラーニングに関する最近の議論に基づいて、現代機械学習における計算と認識の哲学における古典的なテーマがどのように再浮上したかを説明する。
- 参考スコア(独自算出の注目度): 10.69993584381151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanations of cognitive behavior often appeal to computations over representations. What does it take for a system to implement a given computation over suitable representational vehicles within that system? We argue that the language of causality -- and specifically the theory of causal abstraction -- provides a fruitful lens on this topic. Drawing on current discussions in deep learning with artificial neural networks, we illustrate how classical themes in the philosophy of computation and cognition resurface in contemporary machine learning. We offer an account of computational implementation grounded in causal abstraction, and examine the role for representation in the resulting picture. We argue that these issues are most profitably explored in connection with generalization and prediction.
- Abstract(参考訳): 認知行動の説明は、しばしば表現よりも計算に訴える。
そのシステム内の適切な表現車両に対して、与えられた計算を実装するのに、システムには何が必要か?
我々は、因果性(因果性)の言語(特に因果的抽象の理論)が、このトピックに実りあるレンズを提供すると論じる。
ニューラルネットワークを用いたディープラーニングに関する最近の議論に基づいて、現代機械学習における計算と認識の哲学における古典的なテーマがどのように再浮上したかを説明する。
本稿では,因果的抽象を基礎とした計算実装の説明を行い,結果の表象における表現の役割について考察する。
これらの問題は、一般化と予測に関して最も有益に検討されていると論じる。
関連論文リスト
- Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - A Cognitively-Inspired Neural Architecture for Visual Abstract Reasoning
Using Contrastive Perceptual and Conceptual Processing [14.201935774784632]
人間の認知に触発された視覚的抽象的推論タスクを解決するための新しいニューラルアーキテクチャを提案する。
この原則にインスパイアされたアーキテクチャは、反復的で自己コントラストの学習プロセスとして、視覚的抽象的推論をモデル化します。
機械学習データセットRAVENの実験は、CPCNetが以前公開されたすべてのモデルよりも高い精度を達成することを示している。
論文 参考訳(メタデータ) (2023-09-19T11:18:01Z) - Learning Differentiable Logic Programs for Abstract Visual Reasoning [22.167393386879294]
微分フォワード推論は、勾配に基づく機械学習パラダイムと推論を統合するために開発された。
NEUMANNはグラフベースの微分可能フォワード推論器で、メッセージをメモリ効率のよい方法で送信し、構造化プログラムを関手で処理する。
NEUMANNは視覚的推論タスクを効率的に解き、神経、象徴的、神経-象徴的ベースラインを上回ります。
論文 参考訳(メタデータ) (2023-07-03T11:02:40Z) - Learning Algebraic Representation for Systematic Generalization in
Abstract Reasoning [109.21780441933164]
推論における体系的一般化を改善するためのハイブリッドアプローチを提案する。
我々はRaven's Progressive Matrices (RPM) の抽象的空間時間課題に対する代数的表現を用いたプロトタイプを紹介する。
得られた代数的表現は同型によって復号化して解を生成することができることを示す。
論文 参考訳(メタデータ) (2021-11-25T09:56:30Z) - Abstract Spatial-Temporal Reasoning via Probabilistic Abduction and
Execution [97.50813120600026]
時空間推論は人工知能(AI)の課題である
最近の研究は、この種の抽象的推論タスクに焦点を当てている -- Raven's Progressive Matrices (RPM)
ニューロシンボリックな確率的アブダクションと実行学習者(PrAE)を提案する。
論文 参考訳(メタデータ) (2021-03-26T02:42:18Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。