論文の概要: Tangentially Aligned Integrated Gradients for User-Friendly Explanations
- arxiv url: http://arxiv.org/abs/2503.08240v1
- Date: Tue, 11 Mar 2025 10:04:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 19:17:17.657877
- Title: Tangentially Aligned Integrated Gradients for User-Friendly Explanations
- Title(参考訳): ユーザフレンドリーな説明のためのタンジショナル・アラインメント型統合グラディエント
- Authors: Lachlan Simpson, Federico Costanza, Kyle Millar, Adriel Cheng, Cheng-Chew Lim, Hong Gunn Chew,
- Abstract要約: ニューラルネットワークのブラックボックス問題に対処するために、マシンラーニングでは統合的な勾配が一般的である。
ベースポイントの選択は明らかに先駆的ではなく、非常に異なる説明につながる可能性がある。
基本点は、説明の接的なアライメントを最大化するために選択されるべきである。
- 参考スコア(独自算出の注目度): 5.286919475372417
- License:
- Abstract: Integrated gradients is prevalent within machine learning to address the black-box problem of neural networks. The explanations given by integrated gradients depend on a choice of base-point. The choice of base-point is not a priori obvious and can lead to drastically different explanations. There is a longstanding hypothesis that data lies on a low dimensional Riemannian manifold. The quality of explanations on a manifold can be measured by the extent to which an explanation for a point lies in its tangent space. In this work, we propose that the base-point should be chosen such that it maximises the tangential alignment of the explanation. We formalise the notion of tangential alignment and provide theoretical conditions under which a base-point choice will provide explanations lying in the tangent space. We demonstrate how to approximate the optimal base-point on several well-known image classification datasets. Furthermore, we compare the optimal base-point choice with common base-points and three gradient explainability models.
- Abstract(参考訳): ニューラルネットワークのブラックボックス問題に対処するために、マシンラーニング内では統合的な勾配が一般的である。
積分勾配による説明は、基底点の選択に依存する。
ベースポイントの選択は前もって明らかではなく、非常に異なる説明につながる可能性がある。
データは低次元リーマン多様体上にあるという長年の仮説がある。
多様体上の説明の質は、ある点の説明がその接空間にある範囲で測ることができる。
本研究では,説明の接的なアライメントを最大化できるように,基本点を選択することを提案する。
接アライメントの概念を定式化し、基底点選択が接空間に横たわる説明を与える理論条件を提供する。
いくつかの画像分類データセットに対して最適なベースポイントを近似する方法を示す。
さらに,最適基底点選択を共通基底点と3つの勾配説明可能性モデルと比較した。
関連論文リスト
- Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - GeoUDF: Surface Reconstruction from 3D Point Clouds via Geometry-guided
Distance Representation [73.77505964222632]
スパース点雲から離散曲面を再構成する問題に対処する学習ベース手法であるGeoUDFを提案する。
具体的には、UDFのための幾何誘導学習法とその勾配推定を提案する。
予測されたUDFから三角形メッシュを抽出するために,カスタマイズされたエッジベースマーチングキューブモジュールを提案する。
論文 参考訳(メタデータ) (2022-11-30T06:02:01Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - Maximum Entropy Baseline for Integrated Gradients [0.0]
統合グラディエンス(IG)は、利用可能な最も一般的な説明可能性の方法の1つである。
本研究では、新しい一様基底線、すなわち最大エントロピー基底線を提案する。
論文 参考訳(メタデータ) (2022-04-12T17:04:42Z) - Identifying the latent space geometry of network models through analysis
of curvature [7.644165047073435]
本稿では,可換空間の経験的に関連するクラスから多様体の種類,次元,曲率を一貫して推定する手法を提案する。
私たちのコアインサイトは、このグラフを、シリック間の結びつきに基づく騒々しい距離行列として表現することで実現します。
論文 参考訳(メタデータ) (2020-12-19T00:35:29Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - A Baseline for Shapley Values in MLPs: from Missingness to Neutrality [3.5939555573102853]
ディープニューラルネットワークはその正確性に基づいて勢いを増しているが、その解釈可能性はしばしば批判されている。
本稿では,中立値に応じてベースラインを選択する手法を提案する。
バイナリ分類タスクの文脈におけるベースラインの選択を実証的に検証する。
論文 参考訳(メタデータ) (2020-06-08T19:29:36Z) - Coherent Gradients: An Approach to Understanding Generalization in
Gradient Descent-based Optimization [15.2292571922932]
本稿では,勾配降下のダイナミクスに関する仮説に基づいて,この問題に答えるアプローチを提案する。
トレーニング中のネットワークパラメータの変更は、(局所的に)同時に多くのサンプルに役立つものに偏っていることを示す。
論文 参考訳(メタデータ) (2020-02-25T03:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。