論文の概要: Stationary Point Losses for Robust Model
- arxiv url: http://arxiv.org/abs/2302.09575v1
- Date: Sun, 19 Feb 2023 13:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:40:08.645957
- Title: Stationary Point Losses for Robust Model
- Title(参考訳): ロバストモデルにおける定常点損失
- Authors: Weiwei Gao, Dazhi Zhang, Yao Li, Zhichang Guo, Ovanes Petrosian
- Abstract要約: クロスエントロピー(CE)損失は、ニューラルネットワークの堅牢な境界を保証するものではない。
適切な分類側には少なくとも1つの定常点を有する定常点(SP)損失を提案する。
本研究では,SP損失を施すことにより,様々な敵攻撃によりロバスト性が向上することが実証された。
- 参考スコア(独自算出の注目度): 3.5651179772067465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The inability to guarantee robustness is one of the major obstacles to the
application of deep learning models in security-demanding domains. We identify
that the most commonly used cross-entropy (CE) loss does not guarantee robust
boundary for neural networks. CE loss sharpens the neural network at the
decision boundary to achieve a lower loss, rather than pushing the boundary to
a more robust position. A robust boundary should be kept in the middle of
samples from different classes, thus maximizing the margins from the boundary
to the samples. We think this is due to the fact that CE loss has no stationary
point. In this paper, we propose a family of new losses, called stationary
point (SP) loss, which has at least one stationary point on the correct
classification side. We proved that robust boundary can be guaranteed by SP
loss without losing much accuracy. With SP loss, larger perturbations are
required to generate adversarial examples. We demonstrate that robustness is
improved under a variety of adversarial attacks by applying SP loss. Moreover,
robust boundary learned by SP loss also performs well on imbalanced datasets.
- Abstract(参考訳): 堅牢性を保証することができないことは、セキュリティ要求ドメインにおけるディープラーニングモデルの適用の大きな障害のひとつだ。
最も一般的に使用されるクロスエントロピー(CE)損失は、ニューラルネットワークの堅牢な境界を保証するものではない。
CE損失は、境界をより堅牢な位置に押し上げるのではなく、決定境界でニューラルネットワークを鋭くし、低い損失を達成する。
堅牢な境界は、異なるクラスからのサンプルの中央に保持されるべきであり、したがって境界からサンプルへのマージンを最大化する。
これはCE損失が静止点を持たないためだと思います。
本稿では,少なくとも1つの定常点を正しい分類側に有する定常点損失(定常点損失)という新たな損失の族を提案する。
精度を損なうことなく,sp損失によって頑健な境界を保証できることを実証した。
SP損失では、敵の例を生成するために大きな摂動が必要となる。
我々はsp損失を適用することで,様々な敵の攻撃の下でロバスト性が向上することを示す。
さらに、sp損失によって学習されるロバストな境界は、不均衡データセットでもうまく機能する。
関連論文リスト
- LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Reshaping the Online Data Buffering and Organizing Mechanism for Continual Test-Time Adaptation [49.53202761595912]
継続的なテスト時間適応は、訓練済みのソースモデルを適用して、教師なしのターゲットドメインを継続的に変更する。
我々は、オンライン環境、教師なしの自然、エラー蓄積や破滅的な忘れのリスクなど、このタスクの課題を分析する。
教師なしシングルパスデータストリームから重要サンプルを高い確実性で識別・集約する不確実性を考慮したバッファリング手法を提案する。
論文 参考訳(メタデータ) (2024-07-12T15:48:40Z) - Large Margin Discriminative Loss for Classification [3.3975558777609915]
本稿では,Deep Learning の文脈において,大きなマージンを持つ新たな識別的損失関数を提案する。
この損失は、クラス内コンパクト性とクラス間分離性によって表されるニューラルネットの識別力を高める。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Optimized Hybrid Focal Margin Loss for Crack Segmentation [1.8492669447784602]
過度なクラス不均衡に対処し, ひび割れ分断に対する過度な適合を防止するために, 新たなハイブリッド焦点損失を提案する。
実験の結果,DeepCrack-DBでは0.43,PanelCrackデータセットでは0.44,ひび割れのIoUが有意に増加することがわかった。
論文 参考訳(メタデータ) (2023-02-09T01:26:38Z) - NPT-Loss: A Metric Loss with Implicit Mining for Face Recognition [28.773161837693344]
深層畳み込みニューラルネットワーク(dcnns)を用いた顔認識は近年目覚ましい成功を収めている。
DCNNベースのFRの重要な要素の1つは、さまざまなアイデンティティ間の識別を保証する損失関数の適切な設計です。
本稿では,プロキシによる三重項損失に相当する新しい損失と,ハード負のマイニングの暗黙のメカニズムを提案する。
論文 参考訳(メタデータ) (2021-03-05T07:26:40Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Adversarially Robust Learning via Entropic Regularization [31.6158163883893]
我々は、敵対的に堅牢なディープニューラルネットワークを訓練するための新しいアルゴリズムATENTを提案する。
我々の手法は、頑健な分類精度の観点から、競争力(またはより良い)性能を達成する。
論文 参考訳(メタデータ) (2020-08-27T18:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。