論文の概要: Deeper Understanding of Black-box Predictions via Generalized Influence
Functions
- arxiv url: http://arxiv.org/abs/2312.05586v1
- Date: Sat, 9 Dec 2023 14:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 20:01:32.036227
- Title: Deeper Understanding of Black-box Predictions via Generalized Influence
Functions
- Title(参考訳): 一般化影響関数によるブラックボックス予測の深い理解
- Authors: Hyeonsu Lyu, Jonggyu Jang, Sehyun Ryu, Hyun Jong Yang
- Abstract要約: 影響関数(IF)は、学習データがモデル行動に与える影響を解明する。
しかし、現代の大規模モデルにおける非選択性や不正確なパラメータの数の増加は、計算の近似不安定性に影響を与える。
固定パラメータの脆弱性を考慮した一般化IFを導入し, 対象パラメータの影響を正確に推定する。
- 参考スコア(独自算出の注目度): 7.264378254137811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Influence functions (IFs) elucidate how learning data affects model behavior.
However, growing non-convexity and the number of parameters in modern
large-scale models lead to imprecise influence approximation and instability in
computations. We highly suspect that the first-order approximation in large
models causes such fragility, as IFs change all parameters including possibly
nuisance parameters that are irrelevant to the examined data. Thus, we attempt
to selectively analyze parameters associated with the data. However, simply
computing influence from the chosen parameters can be misleading, as it fails
to nullify the subliminal impact of unselected parameters. Our approach
introduces generalized IFs, precisely estimating target parameters' influence
while considering fixed parameters' effects. Unlike the classic IFs, we newly
adopt a method to identify pertinent target parameters closely associated with
the analyzed data. Furthermore, we tackle computational instability with a
robust inverse-Hessian-vector product approximation. Remarkably, the proposed
approximation algorithm guarantees convergence regardless of the network
configurations. We evaluated our approach on ResNet-18 and VGG-11 for class
removal and backdoor model recovery. Modifying just 10\% of the network yields
results comparable to the network retrained from scratch. Aligned with our
first guess, we also confirm that modifying an excessive number of parameters
results in a decline in network utility. We believe our proposal can become a
versatile tool for model analysis across various AI domains, appealing to both
specialists and general readers. Codes are available at
https://github.com/hslyu/GIF.
- Abstract(参考訳): 影響関数(IF)は、学習データがモデル行動に与える影響を解明する。
しかし、現代の大規模モデルにおける非凸性の増加とパラメータ数の増大は、計算における不正確な影響近似と不安定性をもたらす。
大規模なモデルにおける一階近似は、IFが検査データに関係のないニュアンスパラメータを含む全てのパラメータを変更するため、そのような不安定性を引き起こすと強く疑っている。
そこで我々は,データに関連するパラメータを選択的に解析する。
しかし、選択されたパラメータからの影響を単に計算するだけでは、未選択パラメータのサブリミナルな影響を無効化できないため、誤解を招くことがある。
提案手法では,固定パラメータの影響を考慮しつつ,対象パラメータの影響を正確に推定する一般化IFを導入する。
従来のifsとは異なり、分析データと密接に関連した関連するターゲットパラメータを識別する手法を新たに採用した。
さらに,ロバストな逆ヘッセン-ベクトル積近似を用いて計算不安定性に取り組む。
驚くべきことに,提案手法はネットワーク構成にかかわらず収束を保証している。
resnet-18とvgg-11のクラス削除とバックドアモデルのリカバリに関するアプローチを評価した。
ネットワークのわずか10\%を変更すると、スクラッチから再トレーニングされたネットワークに匹敵する結果が得られる。
最初の推測と一致して、過剰なパラメータの変更によってネットワークユーティリティが低下することを確認した。
私たちの提案は、さまざまなaiドメインにわたるモデル分析の汎用ツールになり、専門家と一般読者の両方にアピールできると考えています。
コードはhttps://github.com/hslyu/GIFで入手できる。
関連論文リスト
- A Unified Gaussian Process for Branching and Nested Hyperparameter
Optimization [19.351804144005744]
ディープラーニングでは、条件に依存したパラメータのチューニングが一般的に行われている。
新しいGPモデルでは、新しいカーネル関数を通じて入力変数間の依存構造が説明される。
ニューラルネットワークの一連の合成シミュレーションおよび実データ応用において、高い予測精度とより良い最適化効率が観察される。
論文 参考訳(メタデータ) (2024-01-19T21:11:32Z) - Variable Importance in High-Dimensional Settings Requires Grouping [19.095605415846187]
Conditional Permutation Importance (CPI)は、そのような場合のPIの制限をバイパスする。
クラスタリングまたはいくつかの事前知識を介して統計的に変数をグループ化すると、ある程度のパワーバックが得られる。
重み付けにより拡張された手法は,高相関なグループであっても,型Iエラーを制御可能であることを示す。
論文 参考訳(メタデータ) (2023-12-18T00:21:47Z) - Should We Learn Most Likely Functions or Parameters? [51.133793272222874]
モデルとデータによって示唆される最も可能性の高い関数を直接推定する利点と欠点について検討する。
関数空間MAP推定は, より平坦な最小化, 一般化, オーバーフィッティングの改善につながる可能性がある。
論文 参考訳(メタデータ) (2023-11-27T16:39:55Z) - Kernel Debiased Plug-in Estimation: Simultaneous, Automated Debiasing
without Influence Functions for Many Target Parameters [1.7478203318226313]
カーネル・デバイアスド・プラグイン推定(KDPE)という新しい手法を提案する。
KDPEは、我々の規則性条件を満たす全ての微分可能なターゲットパラメータを同時に分離する。
我々は、KDPEの使用法を数値的に説明し、理論結果を検証した。
論文 参考訳(メタデータ) (2023-06-14T15:58:50Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Parameters or Privacy: A Provable Tradeoff Between Overparameterization
and Membership Inference [29.743945643424553]
オーバーパラメータ化モデルは、トレーニングデータ(トレーニングデータではゼロエラー)を記憶するように訓練された場合でも、うまく(テストデータでは小さなエラー)一般化する。
このことが、パラメータ化されたモデル(例えばディープラーニング)をますます超越する武器競争に繋がった。
論文 参考訳(メタデータ) (2022-02-02T19:00:21Z) - Network insensitivity to parameter noise via adversarial regularization [0.0]
本稿では,学習中にネットワークパラメータを攻撃できる新しい対向的ネットワーク最適化アルゴリズムを提案する。
提案手法は,対象パラメータの変動に対してより堅牢なモデルを生成する。
私たちの研究は、計算非理想性に苦しむデバイスを推論するために、ニューラルネットワークアーキテクチャをデプロイするためのアプローチを提供します。
論文 参考訳(メタデータ) (2021-06-09T12:11:55Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。