論文の概要: Repairing Group-Level Errors for DNNs Using Weighted Regularization
- arxiv url: http://arxiv.org/abs/2203.13612v1
- Date: Thu, 24 Mar 2022 15:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 11:58:45.651155
- Title: Repairing Group-Level Errors for DNNs Using Weighted Regularization
- Title(参考訳): 重み付き正規化を用いたDNNに対するグループレベルエラーの修復
- Authors: Ziyuan Zhong, Yuchi Tian, Conor J.Sweeney, Vicente Ordonez-Roman,
Baishakhi Ray
- Abstract要約: ディープニューラルネットワーク(DNN)は、人々の生活に影響を与える決定を下すソフトウェアで広く使われている。
それらは、不運な結果につながる可能性のある重度の誤った行動を示すことが判明した。
以前の研究では、そのような不行は単一の画像上のエラーではなく、クラスプロパティの違反によって発生することが多かった。
本稿では,DNNの修正を目的とした5つの具体的手法からなる重み付き正規化法を提案する。
- 参考スコア(独自算出の注目度): 15.180437840817785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have been widely used in software making
decisions impacting people's lives. However, they have been found to exhibit
severe erroneous behaviors that may lead to unfortunate outcomes. Previous work
shows that such misbehaviors often occur due to class property violations
rather than errors on a single image. Although methods for detecting such
errors have been proposed, fixing them has not been studied so far. Here, we
propose a generic method called Weighted Regularization (WR) consisting of five
concrete methods targeting the error-producing classes to fix the DNNs. In
particular, it can repair confusion error and bias error of DNN models for both
single-label and multi-label image classifications. A confusion error happens
when a given DNN model tends to confuse between two classes. Each method in WR
assigns more weights at a stage of DNN retraining or inference to mitigate the
confusion between target pair. A bias error can be fixed similarly. We evaluate
and compare the proposed methods along with baselines on six widely-used
datasets and architecture combinations. The results suggest that WR methods
have different trade-offs but under each setting at least one WR method can
greatly reduce confusion/bias errors at a very limited cost of the overall
performance.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、人々の生活に影響を与える決定を下すソフトウェアで広く使われている。
しかし、不運な結果につながる可能性のある重度の誤った行動を示すことが発見されている。
以前の研究では、このような誤動作は単一のイメージのエラーではなく、クラスプロパティの違反によって発生することが多い。
このような誤りを検出できる手法が提案されているが、今のところその修正は行われていない。
本稿では,DNNの修正を目的とした5つの具体的手法からなる重み付き正規化法(WR)を提案する。
特に、シングルラベル画像分類とマルチラベル画像分類の両方において、DNNモデルの混乱誤差とバイアス誤差を修復することができる。
混乱エラーは、与えられたDNNモデルが2つのクラスの間で混乱する傾向にある場合に発生する。
wrの各メソッドは、目標ペア間の混乱を緩和するために、dnnリトレーニングや推論の段階でさらに重みを割り当てる。
バイアスエラーも同様に修正できる。
提案手法と,広く使用されている6つのデータセットとアーキテクチャの組み合わせをベースラインとして評価・比較する。
その結果、WR法はトレードオフが異なるが、少なくとも1つのWR法では、全体的な性能の非常に限られたコストで、混乱/バイアスエラーを大幅に低減できることがわかった。
関連論文リスト
- Subtle Errors Matter: Preference Learning via Error-injected Self-editing [59.405145971637204]
eRror-Injected Self-Editing (RISE) と呼ばれる新しい好み学習フレームワークを提案する。
RISEは定義済みの微妙な誤りを正しい解の部分的なトークンに注入し、エラー軽減のためにハードペアを構築する。
RISEの有効性を検証する実験では、Qwen2-7B-Instructでは、GSM8Kでは3.0%、MATHでは7.9%が顕著に改善された。
論文 参考訳(メタデータ) (2024-10-09T07:43:38Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Semi-Supervised Learning with Multiple Imputations on Non-Random Missing
Labels [0.0]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータの両方でアルゴリズムがトレーニングされるときに実装される。
本稿では,より高精度でバイアスの少ない複数の計算モデルを組み合わせるための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T04:09:53Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Generalized Negative Correlation Learning for Deep Ensembling [7.569288952340753]
Ensembleアルゴリズムは、多くの機械学習アプリケーションにおいて、最先端のアートパフォーマンスを提供する。
任意の2つの微分可能な損失関数に対する一般化バイアス分散分解を定式化する。
我々は,アンサンブルの多様性を明示的に制御する一般化負相関学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-11-05T16:29:22Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z) - DMT: Dynamic Mutual Training for Semi-Supervised Learning [69.17919491907296]
自己学習法は通常、低信頼の擬似ラベルをフィルタリングするために単一のモデル予測の信頼性に依存する。
動的相互学習と呼ばれる動的に再重み付けされた損失関数を用いて、2つの異なるモデル間の相互学習を提案する。
実験の結果,DMTは画像分類とセマンティックセグメンテーションの両方において最先端の性能を実現することがわかった。
論文 参考訳(メタデータ) (2020-04-18T03:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。