論文の概要: Real World Robustness from Systematic Noise
- arxiv url: http://arxiv.org/abs/2109.00864v1
- Date: Thu, 2 Sep 2021 12:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 21:14:09.119200
- Title: Real World Robustness from Systematic Noise
- Title(参考訳): 騒音による実世界のロバスト性
- Authors: Yan Wang, Yuhang Li, Ruihao Gong
- Abstract要約: 本稿では,系統的誤りによる長期的かつ頻繁な敵対例を示す。
実世界の逆数例をベンチマークするために,ImageNet-Sデータセットを提案する。
例えば、ImageNetでトレーニングされた通常のResNet-50は、システムエラーにより1%-5%の精度差がある。
- 参考スコア(独自算出の注目度): 13.034436864136103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Systematic error, which is not determined by chance, often refers to the
inaccuracy (involving either the observation or measurement process) inherent
to a system. In this paper, we exhibit some long-neglected but
frequent-happening adversarial examples caused by systematic error. More
specifically, we find the trained neural network classifier can be fooled by
inconsistent implementations of image decoding and resize. This tiny difference
between these implementations often causes an accuracy drop from training to
deployment. To benchmark these real-world adversarial examples, we propose
ImageNet-S dataset, which enables researchers to measure a classifier's
robustness to systematic error. For example, we find a normal ResNet-50 trained
on ImageNet can have 1%-5% accuracy difference due to the systematic error.
Together our evaluation and dataset may aid future work toward real-world
robustness and practical generalization.
- Abstract(参考訳): 偶然によって決定されない系統的誤りは、しばしばシステムに固有の不正確さ(観測過程または測定過程の両方を誘発する)を指す。
本稿では,系統的誤りによる長期的かつ頻繁な敵対例を示す。
より具体的には、トレーニングされたニューラルネットワーク分類器は、画像デコーディングとリサイズの不整合実装によって騙される可能性がある。
これらの実装間の小さな違いは、トレーニングからデプロイメントへの精度低下を引き起こすことが多い。
実世界の逆の例をベンチマークするために、研究者は分類器の頑健さを系統的エラーに測定できるImageNet-Sデータセットを提案する。
例えば、ImageNetでトレーニングされた通常のResNet-50は、システムエラーにより1%-5%の精度差がある。
我々の評価とデータセットは、実世界の堅牢性と実用的な一般化に向けた将来の作業に役立つかもしれない。
関連論文リスト
- Typicalness-Aware Learning for Failure Detection [26.23185979968123]
ディープニューラルネットワーク(DNN)は、しばしば自信過剰な問題に悩まされる。
そこで本研究では,本問題に対処し,故障検出性能を向上させるために,S typicalness-Aware Learning (TAL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T11:09:47Z) - An accurate detection is not all you need to combat label noise in web-noisy datasets [23.020126612431746]
分離した超平面の直接推定により,OOD試料の正確な検出が可能であることを示す。
本稿では,線形分離を用いた雑音検出とSOTA(State-of-the-art-the-loss)アプローチを交互に行うハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-08T00:21:42Z) - Mitigating the Impact of Labeling Errors on Training via Rockafellian Relaxation [0.8741284539870512]
ニューラルネットワークトレーニングのためのRockafellian Relaxation(RR)の実装を提案する。
RRは、分類タスク間で堅牢なパフォーマンスを達成するために、標準的なニューラルネットワーク手法を強化することができる。
RRはラベル付け誤りと/または逆方向の摂動の両方によるデータセットの破損の影響を軽減することができる。
論文 参考訳(メタデータ) (2024-05-30T23:13:01Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - An Introduction to Robust Graph Convolutional Networks [71.68610791161355]
本論文では, 誤りのある単一ビューあるいは複数ビューのデータに対して, 新たなロバストグラフ畳み込みニューラルネットワークを提案する。
従来のグラフ畳み込みネットワークにAutoencodersを介して余分なレイヤを組み込むことで、典型的なエラーモデルを明示的に特徴付けおよび処理します。
論文 参考訳(メタデータ) (2021-03-27T04:47:59Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Detecting Misclassification Errors in Neural Networks with a Gaussian
Process Model [20.948038514886377]
本稿では,誤分類誤りを検出するための定量的な尺度を新たに作成する枠組みを提案する。
このフレームワークREDは、ベース分類器の上にエラー検出器を構築し、ガウス過程を用いて検出スコアの不確かさを推定する。
論文 参考訳(メタデータ) (2020-10-05T15:01:30Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。