論文の概要: Class based Influence Functions for Error Detection
- arxiv url: http://arxiv.org/abs/2305.01384v1
- Date: Tue, 2 May 2023 13:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 14:25:49.780845
- Title: Class based Influence Functions for Error Detection
- Title(参考訳): 誤り検出のためのクラスベース影響関数
- Authors: Thang Nguyen-Duc, Hoang Thanh-Tung, Quan Hung Tran, Dang Huu-Tien,
Hieu Ngoc Nguyen, Anh T. V. Dau, Nghi D. Q. Bui
- Abstract要約: 影響関数(IF)は、ディープネットワークに適用すると不安定である。
2つのデータポイントが2つの異なるクラスに属している場合、IFは信頼できないことを示す。
我々のソリューションは、IFの安定性を向上させるためにクラス情報を活用する。
- 参考スコア(独自算出の注目度): 12.925739281660938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Influence functions (IFs) are a powerful tool for detecting anomalous
examples in large scale datasets. However, they are unstable when applied to
deep networks. In this paper, we provide an explanation for the instability of
IFs and develop a solution to this problem. We show that IFs are unreliable
when the two data points belong to two different classes. Our solution
leverages class information to improve the stability of IFs. Extensive
experiments show that our modification significantly improves the performance
and stability of IFs while incurring no additional computational cost.
- Abstract(参考訳): 影響関数(IF)は大規模データセットにおける異常な例を検出する強力なツールである。
しかし、深層ネットワークに適用すると不安定である。
本稿では,IFの不安定性を説明するとともに,この問題に対する解決策を開発する。
2つのデータポイントが2つの異なるクラスに属する場合、ifsは信頼できない。
我々のソリューションは、ifの安定性を改善するためにクラス情報を利用する。
広範な実験により,ifsの性能と安定性は大幅に向上し,計算コストは増大しなかった。
関連論文リスト
- Deeper Understanding of Black-box Predictions via Generalized Influence Functions [6.649753747542211]
影響関数(IF)は、データがどのようにモデルを変更するかを明らかにする。
大規模モデルにおけるサイズと非解釈性の増加はIFを不正確なものにしている。
固定パラメータに対するニュアンス勾配変化を無効化しながら、ターゲットパラメータの影響を正確に推定する一般化IFを導入する。
論文 参考訳(メタデータ) (2023-12-09T14:17:12Z) - Spuriosity Didn't Kill the Classifier: Using Invariant Predictions to
Harness Spurious Features [19.312258609611686]
安定フィーチャーブースティング(SFB)は、安定かつ条件に依存しない不安定な特徴を分離する予測器を学習するためのアルゴリズムである。
SFBはテストドメインラベルを使わずに最適な予測器を学習できることを示す。
実データおよび合成データに対するSFBの有効性を実証的に示す。
論文 参考訳(メタデータ) (2023-07-19T12:15:06Z) - Diversity-enhancing Generative Network for Few-shot Hypothesis
Adaptation [135.80439360370556]
本稿では,FHA問題に対する多様性向上型生成ネットワーク(DEG-Net)を提案する。
カーネル独立対策(Hilbert-Schmidt independent criterion、HSIC)の助けを借りて、さまざまなラベルのないデータを生成することができる。
論文 参考訳(メタデータ) (2023-07-12T06:29:02Z) - If Influence Functions are the Answer, Then What is the Question? [7.873458431535409]
影響関数は、モデルの学習パラメータに対する1つのトレーニングデータポイントの除去の効果を効率的に推定する。
影響推定は線形モデルの残余再トレーニングとよく一致しているが、最近の研究では、ニューラルネットワークではこのアライメントが不十分であることが示されている。
論文 参考訳(メタデータ) (2022-09-12T16:17:43Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Stability of SGD: Tightness Analysis and Improved Bounds [8.831597193643628]
グラディエント・Descent(SGD)に基づく手法は、実際によく一般化された大規模機械学習モデルの訓練に広く用いられている。
解析[18]は滑らかな関数に対して厳密であり、そうでなければ、どのような損失とデータに対して、分析は改善できるのか?
論文 参考訳(メタデータ) (2021-02-10T05:43:27Z) - FastIF: Scalable Influence Functions for Efficient Model Interpretation
and Debugging [112.19994766375231]
影響関数は、テスト予測のためのトレーニングデータポイントの「影響」を近似する。
fastifは、実行時間を大幅に改善する関数に影響を与えるための、単純な修正セットです。
本実験はモデル解釈とモデル誤差の修正における影響関数の可能性を示す。
論文 参考訳(メタデータ) (2020-12-31T18:02:34Z) - Active Class Incremental Learning for Imbalanced Datasets [10.680349952226935]
インクリメンタルラーニング(IL)は、AIシステムがストリームデータに適応できるようにする。
既存のアルゴリズムの多くは、2つの強い仮説を立て、漸進的なシナリオの現実性を減らす。
不均衡に対処し、IL制約に適合するサンプル取得関数を導入する。
論文 参考訳(メタデータ) (2020-08-25T12:47:09Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z) - The Curse of Performance Instability in Analysis Datasets: Consequences,
Source, and Suggestions [93.62888099134028]
自然言語推論(NLI)および読み込み(RC)解析/ストレスセットにおける最先端モデルの性能は極めて不安定であることがわかった。
このことは、(1)不安定さがこれらの分析セットに基づいて引き出された結論の信頼性にどのように影響するかという3つの疑問を提起する。
不安定の原因に関する理論的説明と実証的証拠の両方を提示する。
論文 参考訳(メタデータ) (2020-04-28T15:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。