論文の概要: Soft Labeling Affects Out-of-Distribution Detection of Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2007.03212v1
- Date: Tue, 7 Jul 2020 05:50:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:49:00.068480
- Title: Soft Labeling Affects Out-of-Distribution Detection of Deep Neural
Networks
- Title(参考訳): ソフトラベリングはディープニューラルネットワークの分散検出に影響を及ぼす
- Authors: Doyup Lee and Yeongjae Cheon
- Abstract要約: ソフトラベリングによりOOD検出性能が決定可能であることを示す。
ソフトラベリングによって不正なクラスの出力を正規化する方法は、OOD検出を劣化または改善することができる。
- 参考スコア(独自算出の注目度): 4.56877715768796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Soft labeling becomes a common output regularization for generalization and
model compression of deep neural networks. However, the effect of soft labeling
on out-of-distribution (OOD) detection, which is an important topic of machine
learning safety, is not explored. In this study, we show that soft labeling can
determine OOD detection performance. Specifically, how to regularize outputs of
incorrect classes by soft labeling can deteriorate or improve OOD detection.
Based on the empirical results, we postulate a future work for OOD-robust DNNs:
a proper output regularization by soft labeling can construct OOD-robust DNNs
without additional training of OOD samples or modifying the models, while
improving classification accuracy.
- Abstract(参考訳): ソフトラベリングはディープニューラルネットワークの一般化とモデル圧縮のための共通出力正規化となる。
しかし、機械学習の安全性の重要なトピックであるアウト・オブ・ディストリビューション(OOD)検出に対するソフトラベリングの効果は検討されていない。
本研究では,ソフトラベリングによりOOD検出性能が決定可能であることを示す。
具体的には、ソフトラベリングによって不正なクラスの出力を正規化する方法は、OOD検出を劣化または改善することができる。
ソフトラベリングによる適切な出力正規化により、OODサンプルの追加トレーニングやモデル修正をすることなく、OOD-robust DNNを構築することができ、分類精度を向上させることができる。
関連論文リスト
- How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Harnessing Out-Of-Distribution Examples via Augmenting Content and Style [93.21258201360484]
機械学習モデルは、Out-Of-Distribution(OOD)の例に弱い。
本稿では,各画像インスタンスのコンテンツとスタイルを利用して良質なOODデータと悪性なOODデータを識別するHOOD法を提案する。
提案されている新しいアンタングル化とデータ拡張技術により、HOODは未知およびオープンな環境でのOODの例を効果的に扱うことができる。
論文 参考訳(メタデータ) (2022-07-07T08:48:59Z) - On the Impact of Spurious Correlation for Out-of-distribution Detection [14.186776881154127]
我々は、不変性と環境特性の両方を考慮して、データシフトをモデル化し、新しい形式化を提案する。
その結果, トレーニングセットにおいて, 突発的特徴とラベルの相関が大きくなると, 検出性能が著しく悪化することが示唆された。
論文 参考訳(メタデータ) (2021-09-12T23:58:17Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。