論文の概要: An Empirical Comparison of Instance Attribution Methods for NLP
- arxiv url: http://arxiv.org/abs/2104.04128v1
- Date: Fri, 9 Apr 2021 01:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:13:06.303203
- Title: An Empirical Comparison of Instance Attribution Methods for NLP
- Title(参考訳): NLPにおけるインスタンス属性手法の実証的比較
- Authors: Pouya Pezeshkpour, Sarthak Jain, Byron C. Wallace and Sameer Singh
- Abstract要約: 本研究は,トレーニングサンプルの重要性に関して,異なるインスタンス属性が一致した度合いを評価する。
単純な検索メソッドは、グラデーションベースの方法によって識別されたものと異なるトレーニングインスタンスを生成する。
- 参考スコア(独自算出の注目度): 62.63504976810927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Widespread adoption of deep models has motivated a pressing need for
approaches to interpret network outputs and to facilitate model debugging.
Instance attribution methods constitute one means of accomplishing these goals
by retrieving training instances that (may have) led to a particular
prediction. Influence functions (IF; Koh and Liang 2017) provide machinery for
doing this by quantifying the effect that perturbing individual train instances
would have on a specific test prediction. However, even approximating the IF is
computationally expensive, to the degree that may be prohibitive in many cases.
Might simpler approaches (e.g., retrieving train examples most similar to a
given test point) perform comparably? In this work, we evaluate the degree to
which different potential instance attribution agree with respect to the
importance of training samples. We find that simple retrieval methods yield
training instances that differ from those identified via gradient-based methods
(such as IFs), but that nonetheless exhibit desirable characteristics similar
to more complex attribution methods. Code for all methods and experiments in
this paper is available at:
https://github.com/successar/instance_attributions_NLP.
- Abstract(参考訳): ディープモデルの普及により、ネットワーク出力を解釈し、モデルデバッグを容易にするアプローチの必要性が高まっている。
インスタンス属性メソッドは、(おそらく)特定の予測に導いたトレーニングインスタンスを取得することで、これらの目標を達成するための1つの手段である。
影響関数(IF; Koh and Liang 2017)は、個々の列車インスタンスの摂動が特定のテスト予測に与える影響を定量化することで、これを行うための機械を提供する。
しかし、IFを近似することでさえ計算コストが高く、多くの場合は禁じられる可能性がある。
より単純なアプローチ(例えば、与えられたテストポイントと最もよく似た列車の例を検索する)は相容れないだろうか?
本研究では,学習サンプルの重要性について,異なる潜在的インスタンスの帰属が一致する程度を評価する。
簡単な検索手法は,勾配に基づく手法(IFsなど)と異なる訓練インスタンスを生成するが,しかしながら,より複雑な帰属法と類似した望ましい特徴を示す。
本論文のすべてのメソッドと実験のコードは、https://github.com/successar/instance_attributions_NLPで公開されている。
関連論文リスト
- Scalable Influence and Fact Tracing for Large Language Model Pretraining [14.598556308631018]
トレーニングデータ属性(TDA)メソッドは、特定のトレーニング例にモデル出力を振り返ることを目的としている。
本稿では,既存の勾配法を改良し,大規模に効果的に機能させる。
論文 参考訳(メタデータ) (2024-10-22T20:39:21Z) - BoostAdapter: Improving Vision-Language Test-Time Adaptation via Regional Bootstrapping [64.8477128397529]
本稿では,テスト時間適応フレームワークを提案する。
我々は、インスタンスに依存しない履歴サンプルとインスタンスを意識したブースティングサンプルから特徴を検索するための軽量なキー値メモリを維持している。
理論的には,本手法の背後にある合理性を正当化し,アウト・オブ・ディストリビューションとクロスドメイン・データセットの両方において,その有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-20T15:58:43Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Simfluence: Modeling the Influence of Individual Training Examples by
Simulating Training Runs [27.314239745883967]
トレーニングデータ属性(TDA)メソッドは、任意の例に対するモデルの予測を、特定の影響力のあるトレーニング例に遡る。
そこで本研究では,TDAの新しいパラダイムであるSimfluenceを提案する。
シムフルエンスは非付加的な相互作用を捉え、個々の損失のスパイクな軌道を驚くほどの忠実さで予測することができる。
論文 参考訳(メタデータ) (2023-03-14T17:47:25Z) - A Maximum Log-Likelihood Method for Imbalanced Few-Shot Learning Tasks [3.2895195535353308]
数ショットアーキテクチャのための新しい最大ログ類似度指標を提案する。
提案手法は,従来の類似度指標よりも優れた性能を実現することを示す。
また,提案アルゴリズムは,評価データが不均衡である場合に,最先端のトランスダクティブな数ショット性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-26T21:31:00Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - An end-to-end approach for the verification problem: learning the right
distance [15.553424028461885]
パラメトリックな擬似距離を導入し、エンコーダと共同で学習することで、メトリック学習の設定を強化する。
まず、仮説テストに使用できる確率比を近似して示す。
提案手法では,実際の距離を持つメートル法学習に比べて,学習の簡易化が図られている。
論文 参考訳(メタデータ) (2020-02-21T18:46:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。