論文の概要: Using Multiple Self-Supervised Tasks Improves Model Robustness
- arxiv url: http://arxiv.org/abs/2204.03714v1
- Date: Thu, 7 Apr 2022 19:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 21:51:07.929463
- Title: Using Multiple Self-Supervised Tasks Improves Model Robustness
- Title(参考訳): 複数の自己監視タスクを使用することでモデルロバスト性が向上する
- Authors: Matthew Lawhon, Chengzhi Mao, Junfeng Yang
- Abstract要約: ディープネットワークはコンピュータビジョンタスクで最先端のパフォーマンスを達成するが、人間には受け入れられない敵の攻撃で失敗する。
複数の自己教師型タスクから本質的構造を用いて入力を動的に適応できる新しい防御法を提案する。
- 参考スコア(独自算出の注目度): 13.181569415158592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep networks achieve state-of-the-art performance on computer vision tasks,
yet they fail under adversarial attacks that are imperceptible to humans. In
this paper, we propose a novel defense that can dynamically adapt the input
using the intrinsic structure from multiple self-supervised tasks. By
simultaneously using many self-supervised tasks, our defense avoids
over-fitting the adapted image to one specific self-supervised task and
restores more intrinsic structure in the image compared to a single
self-supervised task approach. Our approach further improves robustness and
clean accuracy significantly compared to the state-of-the-art single task
self-supervised defense. Our work is the first to connect multiple
self-supervised tasks to robustness, and suggests that we can achieve better
robustness with more intrinsic signal from visual data.
- Abstract(参考訳): ディープネットワークはコンピュータビジョンタスクで最先端のパフォーマンスを達成するが、人間には受け入れられない敵の攻撃で失敗する。
本稿では,複数の自己教師型タスクから内在的構造を用いて動的に入力を適応できる新しいディフェンスを提案する。
多くの自己監督的タスクを同時に使用することにより、我々の防衛は、適応されたイメージを特定の自己監督的タスクに過度に適合させることを避け、単一の自己監督的タスクアプローチと比較して、画像の本質的な構造を復元する。
我々のアプローチは、最先端のシングルタスクの自己監視防御と比較して、ロバスト性とクリーンな正確性をさらに向上させる。
我々の研究は、複数の自己監督タスクをロバストネスに接続する最初のものであり、視覚データからより本質的な信号によって、より堅牢性を達成することができることを示唆している。
関連論文リスト
- Cross-Task Attack: A Self-Supervision Generative Framework Based on Attention Shift [3.6015992701968793]
自己教師型クロスタスクアタックフレームワーク(CTA)を提案する。
CTAは、サンプルの注意領域をコアテンションマップから、アンチアテンションマップに近づけることで、クロスタスク摂動を生成する。
本研究では,複数の視覚課題に対する広範囲な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-07-18T17:01:10Z) - Benchmarking Robust Self-Supervised Learning Across Diverse Downstream Tasks [9.207022068713867]
複数の下流タスクにまたがる自己監督型視覚エンコーダの対向ロバスト性に関する包括的実証評価を行った。
我々の攻撃はエンコーダの埋め込みスペースと下流タスク出力レベルで動作する。
基礎モデルの目的は一度に複数のアプリケーションに対応することであるため,より広範にエンコーダの堅牢性を高める必要性が明らかとなった。
論文 参考訳(メタデータ) (2024-07-17T14:12:34Z) - Masked AutoDecoder is Effective Multi-Task Vision Generalist [64.43215311406195]
Masked AutoDecoder (MAD) はマルチタスク・ビジョン・ジェネラリストである。
我々は、コンテキスト依存を捉えるために双方向の注意を喚起する並列デコーディングフレームワークを開発する。
第二に、マスキングとタスクシーケンス再構築により、リッチなタスクコンテキストを学習するマスキングシーケンスモデリング手法を設計する。
論文 参考訳(メタデータ) (2024-03-12T14:36:52Z) - Self-Supervised Multi-Object Tracking For Autonomous Driving From
Consistency Across Timescales [53.55369862746357]
自己管理型マルチオブジェクトトラッカーは、生のドメイン固有データから学習できるという大きな可能性を秘めている。
しかし、その再識別精度は、監督対象よりも低い。
本稿では,複数の連続フレームから再同定特徴を自己教師付きで学習できる学習目標を提案する。
論文 参考訳(メタデータ) (2023-04-25T20:47:29Z) - Exposing and Addressing Cross-Task Inconsistency in Unified
Vision-Language Models [80.23791222509644]
一貫性のないAIモデルは、人間のユーザーによって不安定で信頼できないと見なされている。
最先端のビジョン言語モデルは、タスク間の驚くほど高い一貫性のない振る舞いに悩まされている。
本稿では,大規模で自動生成されるクロスタスクコントラスト集合上で計算されたランク相関に基づく補助訓練目標を提案する。
論文 参考訳(メタデータ) (2023-03-28T16:57:12Z) - Composite Learning for Robust and Effective Dense Predictions [81.2055761433725]
マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
自己監督型(補助的)タスクと密接な予測(目標)タスクを共同でトレーニングすることで、目標タスクの性能を継続的に向上し、補助タスクのラベル付けの必要性を排除できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T17:59:16Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Boosting Supervised Learning Performance with Co-training [15.986635379046602]
我々は,教師付き学習性能を最小限のコストで向上させることができる,軽量な自己教師付き学習フレームワークを提案する。
以上の結果から,両タスクとも教師付きタスクの精度が向上し,ドメイン適応能力が向上することが示唆された。
論文 参考訳(メタデータ) (2021-11-18T17:01:17Z) - Multitask Learning Strengthens Adversarial Robustness [44.27223912197483]
対象タスクの数が増加するにつれて,モデルの対向的ロバスト性が向上することを示す。
我々の結果は、ディープ・ネットワークは、タスクが少なすぎるため、脆弱性があることを示唆している。
論文 参考訳(メタデータ) (2020-07-14T17:52:45Z) - DeepCap: Monocular Human Performance Capture Using Weak Supervision [106.50649929342576]
そこで本研究では,単分子密集型人間のパフォーマンスキャプチャのための新しい深層学習手法を提案する。
本手法は,多視点監視に基づく弱教師付き方式で訓練されている。
我々のアプローチは、品質と堅牢性の観点から、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-03-18T16:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。