論文の概要: Aligned explanations in neural networks
- arxiv url: http://arxiv.org/abs/2601.04378v1
- Date: Wed, 07 Jan 2026 20:35:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.909154
- Title: Aligned explanations in neural networks
- Title(参考訳): ニューラルネットワークにおける配向的説明
- Authors: Corentin Lobet, Francesca Chiaromonte,
- Abstract要約: 我々は、説明はポストホックな合理化としてではなく、予測と直接的に結びついなければならないと論じている。
我々は、モデル可読性をアライメントを可能にする設計原則として提示し、PiNetsをモデリングフレームワークとして深層学習の文脈でそれを追求する。
- 参考スコア(独自算出の注目度): 0.8594140167290095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature attribution is the dominant paradigm for explaining deep neural networks. However, most existing methods only loosely reflect the model's prediction-making process, thereby merely white-painting the black box. We argue that explanatory alignment is a key aspect of trustworthiness in prediction tasks: explanations must be directly linked to predictions, rather than serving as post-hoc rationalizations. We present model readability as a design principle enabling alignment, and PiNets as a modeling framework to pursue it in a deep learning context. PiNets are pseudo-linear networks that produce instance-wise linear predictions in an arbitrary feature space, making them linearly readable. We illustrate their use on image classification and segmentation tasks, demonstrating how PiNets produce explanations that are faithful across multiple criteria in addition to alignment.
- Abstract(参考訳): 機能属性は、ディープニューラルネットワークを説明する主要なパラダイムである。
しかし、既存のほとんどの手法はモデルの予測過程を緩やかに反映し、ブラックボックスを白く塗るだけである。
我々は、説明的アライメントが予測タスクにおける信頼性の重要な側面であると主張する。
我々は、モデル可読性をアライメントを可能にする設計原則として提示し、PiNetsをモデリングフレームワークとして深層学習の文脈でこれを追求する。
PiNetは擬似線形ネットワークであり、任意の特徴空間においてインスタンスワイドな線形予測を生成し、それらを線形に読み取ることができる。
画像分類とセグメンテーションタスクにおけるそれらの使用法を説明し、複数の基準に忠実な説明を、アライメントに加えてどのようにPiNetが生成するかを示す。
関連論文リスト
- Obtaining Example-Based Explanations from Deep Neural Networks [18.708235771482205]
EBE-DNNは、非常に集中した例の属性を提供することができる。
埋め込みに使用するレイヤの選択は、その結果の正確性に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2025-02-27T05:10:48Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Explaining Deep Convolutional Neural Networks for Image Classification by Evolving Local Interpretable Model-agnostic Explanations [8.669319624657701]
提案手法はモデルに依存しない、すなわち、深い畳み込みニューラルネットワークモデルを説明するために利用することができる。
ImageNetからランダムに選択された4つの画像の進化した局所的説明を示す。
提案手法は,LIMEの10倍以上高速な局所的な説明を1分以内で得ることができる。
論文 参考訳(メタデータ) (2022-11-28T08:56:00Z) - Towards Prototype-Based Self-Explainable Graph Neural Network [37.90997236795843]
本稿では,プロトタイプベースの自己説明可能なGNNを学習し,正確な予測とプロトタイプベースの予測説明を同時に行うという,新たな課題について考察する。
学習したプロトタイプは、テストインスタンスの予測とインスタンスレベルの説明を同時に行うためにも使用される。
論文 参考訳(メタデータ) (2022-10-05T00:47:42Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Sparse Oblique Decision Trees: A Tool to Understand and Manipulate
Neural Net Features [3.222802562733787]
ニューラルネットワークによって計算される内部的特徴のどれが特定のクラスに責任を持つかを理解することに注力する。
我々は、ニューラルネットワークの機能を容易に操作できることを示し、ネットが所定のクラスを予測するかどうかを予測できるようにし、機能レベルで敵対的な攻撃を行うことができることを示した。
論文 参考訳(メタデータ) (2021-04-07T05:31:08Z) - MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks [10.06397994266945]
MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
論文 参考訳(メタデータ) (2020-11-03T04:40:49Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。