論文の概要: Constructing sensible baselines for Integrated Gradients
- arxiv url: http://arxiv.org/abs/2412.13864v1
- Date: Wed, 18 Dec 2024 14:01:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:47:33.946333
- Title: Constructing sensible baselines for Integrated Gradients
- Title(参考訳): 積分勾配に対する感性ベースラインの構成
- Authors: Jai Bardhan, Cyrin Neeraj, Mihir Rawat, Subhadip Mitra,
- Abstract要約: 我々は、異なるベースラインを設計することで、機械学習モデルを理解するために統合的勾配(IG)を適用する方法を示す。
ゼロベクターベースラインは良い特徴属性を提供しておらず、バックグラウンドイベントからサンプリングされた平均ベースラインは、一貫してより合理的な属性を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine learning methods have seen a meteoric rise in their applications in the scientific community. However, little effort has been put into understanding these "black box" models. We show how one can apply integrated gradients (IGs) to understand these models by designing different baselines, by taking an example case study in particle physics. We find that the zero-vector baseline does not provide good feature attributions and that an averaged baseline sampled from the background events provides consistently more reasonable attributions.
- Abstract(参考訳): 機械学習の手法は、科学コミュニティにおける彼らの応用の流星的な増加を目の当たりにしている。
しかしながら、これらの「ブラックボックス」モデルを理解する努力はほとんど行われていない。
粒子物理学の例を例に、これらのモデルを理解するために統合勾配(IG)を適用して、異なるベースラインを設計する方法を示す。
ゼロベクターベースラインは良い特徴属性を提供しておらず、バックグラウンドイベントからサンプリングされた平均ベースラインは、一貫してより合理的な属性を提供する。
関連論文リスト
- Language Models as Zero-shot Lossless Gradient Compressors: Towards
General Neural Parameter Prior Models [66.1595537904019]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - Gradient-enhanced deep Gaussian processes for multifidelity modelling [0.0]
マルチファイダリティモデルは、複数のソースからのデータを統合して、基礎となるプロセスのための単一の近似器を生成する。
ディープガウス過程(GP)は、非パラメトリックで、オーバーフィッティングに頑健で、小さなデータセットでうまく機能するため、多忠実なモデリングには魅力的である。
論文 参考訳(メタデータ) (2024-02-25T11:08:19Z) - Gradient-Based Feature Learning under Structured Data [57.76552698981579]
異方性設定では、一般的に使用される球面勾配力学は真の方向を回復できないことがある。
バッチ正規化を連想させる適切な重み正規化は、この問題を軽減することができることを示す。
特に、スパイクモデルの下では、勾配に基づくトレーニングのサンプルの複雑さは情報指数とは独立にできる。
論文 参考訳(メタデータ) (2023-09-07T16:55:50Z) - Learning curves for deep structured Gaussian feature models [37.58363114240929]
統計物理学のレプリカ手法を用いて、多くの構造を持つガウス的特徴を持つモデルの学習曲線を導出する。
特徴層の最初の行間の相関を許容することは一般化に役立ち、後続層の構造は一般的に有害であることを示す。
論文 参考訳(メタデータ) (2023-03-01T15:11:23Z) - Learning Gaussian Mixtures Using the Wasserstein-Fisher-Rao Gradient
Flow [12.455057637445174]
ガウス混合モデルを用いて非パラメトリック最大推定器(NPMLE)を計算するための新しいアルゴリズムを提案する。
この手法は、ワッサーシュタイン-フィッシャー-ラオ幾何学を備えた確率測度空間上の勾配降下に基づく。
提案アルゴリズムの有効性を確認するため,広範囲な数値実験を行った。
論文 参考訳(メタデータ) (2023-01-04T18:59:35Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - Geometrically Guided Integrated Gradients [0.3867363075280543]
我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
論文 参考訳(メタデータ) (2022-06-13T05:05:43Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。