論文の概要: Theoretical and Practical Perspectives on what Influence Functions Do
- arxiv url: http://arxiv.org/abs/2305.16971v1
- Date: Fri, 26 May 2023 14:26:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 14:15:52.696900
- Title: Theoretical and Practical Perspectives on what Influence Functions Do
- Title(参考訳): 機能への影響に関する理論的・実践的展望
- Authors: Andrea Schioppa and Katja Filippova and Ivan Titov and Polina
Zablotskaia
- Abstract要約: インフルエンス関数(IF)は、トレーニングデータのレンズを通してモデル予測を説明する技術として見なされている。
近年の実証研究により,既存のIF推定手法は脱落・脱落・抑制効果の低下を予測できることが示された。
ほとんどの仮定はうまく処理できるが、パラメータの発散はIFの予測力に明確な制限を与える。
- 参考スコア(独自算出の注目度): 45.35457212616306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Influence functions (IF) have been seen as a technique for explaining model
predictions through the lens of the training data. Their utility is assumed to
be in identifying training examples "responsible" for a prediction so that, for
example, correcting a prediction is possible by intervening on those examples
(removing or editing them) and retraining the model. However, recent empirical
studies have shown that the existing methods of estimating IF predict the
leave-one-out-and-retrain effect poorly.
In order to understand the mismatch between the theoretical promise and the
practical results, we analyse five assumptions made by IF methods which are
problematic for modern-scale deep neural networks and which concern convexity,
numeric stability, training trajectory and parameter divergence. This allows us
to clarify what can be expected theoretically from IF. We show that while most
assumptions can be addressed successfully, the parameter divergence poses a
clear limitation on the predictive power of IF: influence fades over training
time even with deterministic training. We illustrate this theoretical result
with BERT and ResNet models.
Another conclusion from the theoretical analysis is that IF are still useful
for model debugging and correcting even though some of the assumptions made in
prior work do not hold: using natural language processing and computer vision
tasks, we verify that mis-predictions can be successfully corrected by taking
only a few fine-tuning steps on influential examples.
- Abstract(参考訳): 影響関数(if)は、トレーニングデータのレンズを通してモデル予測を説明する技術と見なされている。
それらのユーティリティは、例えば、これらの例に介入し(削除または編集)、モデルをリトレーニングすることで、予測を修正できるように、予測の"責任"のトレーニング例を特定することであると仮定されている。
しかし、近年の実証研究により、残欠再訓練効果を予測できない場合の既存の推定方法が低かったことが示されている。
理論上の期待値と実用結果のミスマッチを理解するために,現代のディープニューラルネットワークでは問題となる手法であり,凸性,数値安定性,トレーニング軌道,パラメータ発散に関する5つの仮定を解析した。
これにより、IFから理論上何が期待できるかを明らかにすることができる。
多くの仮定はうまく対処できるが、パラメータの発散はifの予測能力に明確な制限を与える: 決定論的トレーニングにおいても、影響はトレーニング時間とともに弱まる。
この理論結果をBERTモデルとResNetモデルで説明する。
理論解析によるもう1つの結論は、IFがモデルデバッギングや修正に有用であり、たとえ事前の作業でなされた仮定のいくつかが成り立っていないとしても: 自然言語処理とコンピュータビジョンタスクを使用することで、影響のある例についていくつかの微調整のステップを踏むことで、誤予測が正常に修正できることを検証することである。
関連論文リスト
- Towards Characterizing Domain Counterfactuals For Invertible Latent Causal Models [15.817239008727789]
本研究では,異なるドメインで生成された場合,サンプルがどのようなものであったのかを仮定した,ドメイン反事実と呼ばれる特定のタイプの因果クエリを解析する。
本研究では, 潜在構造因果モデル (SCM) の回復は, ドメイン・デファクト・デファクトを推定するために不要であることを示す。
また、モデル生成過程を単純化し、生成モデル推定を行うための理論的基盤となる実用的なアルゴリズムも開発する。
論文 参考訳(メタデータ) (2023-06-20T04:19:06Z) - Feature Perturbation Augmentation for Reliable Evaluation of Importance
Estimators in Neural Networks [5.439020425819001]
ポストホック解釈可能性法は、ディープニューラルネットワークの内部動作をより解釈可能にしようとする。
最も一般的な評価フレームワークの1つは、解釈可能性メソッドによって重要とみなされる機能を摂動させることである。
モデルトレーニング中に摂動画像を生成し,付加する特徴摂動増強(FPA)を提案する。
論文 参考訳(メタデータ) (2023-03-02T19:05:46Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。