論文の概要: Aligned explanations in neural networks
- arxiv url: http://arxiv.org/abs/2601.04378v1
- Date: Wed, 07 Jan 2026 20:35:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.909154
- Title: Aligned explanations in neural networks
- Title(参考訳): ニューラルネットワークにおける配向的説明
- Authors: Corentin Lobet, Francesca Chiaromonte,
- Abstract要約: 我々は、説明はポストホックな合理化としてではなく、予測と直接的に結びついなければならないと論じている。
我々は、モデル可読性をアライメントを可能にする設計原則として提示し、PiNetsをモデリングフレームワークとして深層学習の文脈でそれを追求する。
- 参考スコア(独自算出の注目度): 0.8594140167290095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature attribution is the dominant paradigm for explaining deep neural networks. However, most existing methods only loosely reflect the model's prediction-making process, thereby merely white-painting the black box. We argue that explanatory alignment is a key aspect of trustworthiness in prediction tasks: explanations must be directly linked to predictions, rather than serving as post-hoc rationalizations. We present model readability as a design principle enabling alignment, and PiNets as a modeling framework to pursue it in a deep learning context. PiNets are pseudo-linear networks that produce instance-wise linear predictions in an arbitrary feature space, making them linearly readable. We illustrate their use on image classification and segmentation tasks, demonstrating how PiNets produce explanations that are faithful across multiple criteria in addition to alignment.
- Abstract(参考訳): 機能属性は、ディープニューラルネットワークを説明する主要なパラダイムである。
しかし、既存のほとんどの手法はモデルの予測過程を緩やかに反映し、ブラックボックスを白く塗るだけである。
我々は、説明的アライメントが予測タスクにおける信頼性の重要な側面であると主張する。
我々は、モデル可読性をアライメントを可能にする設計原則として提示し、PiNetsをモデリングフレームワークとして深層学習の文脈でこれを追求する。
PiNetは擬似線形ネットワークであり、任意の特徴空間においてインスタンスワイドな線形予測を生成し、それらを線形に読み取ることができる。
画像分類とセグメンテーションタスクにおけるそれらの使用法を説明し、複数の基準に忠実な説明を、アライメントに加えてどのようにPiNetが生成するかを示す。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Explaining Deep Convolutional Neural Networks for Image Classification by Evolving Local Interpretable Model-agnostic Explanations [8.669319624657701]
提案手法はモデルに依存しない、すなわち、深い畳み込みニューラルネットワークモデルを説明するために利用することができる。
ImageNetからランダムに選択された4つの画像の進化した局所的説明を示す。
提案手法は,LIMEの10倍以上高速な局所的な説明を1分以内で得ることができる。
論文 参考訳(メタデータ) (2022-11-28T08:56:00Z) - Towards Prototype-Based Self-Explainable Graph Neural Network [37.90997236795843]
本稿では,プロトタイプベースの自己説明可能なGNNを学習し,正確な予測とプロトタイプベースの予測説明を同時に行うという,新たな課題について考察する。
学習したプロトタイプは、テストインスタンスの予測とインスタンスレベルの説明を同時に行うためにも使用される。
論文 参考訳(メタデータ) (2022-10-05T00:47:42Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。