論文の概要: Task-Agnostic Robust Representation Learning
- arxiv url: http://arxiv.org/abs/2203.07596v1
- Date: Tue, 15 Mar 2022 02:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 15:11:26.568643
- Title: Task-Agnostic Robust Representation Learning
- Title(参考訳): タスク非依存ロバスト表現学習
- Authors: A. Tuan Nguyen, Ser Nam Lim, Philip Torr
- Abstract要約: 本研究では,未ラベルデータを用いた頑健な表現学習の課題をタスクに依存しない方法で検討する。
我々は、その損失をクリーンデータとロバストネス正則化器を用いて、下流タスクにおける予測モデルの逆方向の損失に上限を導出する。
本手法は,関係するベースラインと比較して,好適な対向性能を実現する。
- 参考スコア(独自算出の注目度): 31.818269301504564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been reported that deep learning models are extremely vulnerable to
small but intentionally chosen perturbations of its input. In particular, a
deep network, despite its near-optimal accuracy on the clean images, often
mis-classifies an image with a worst-case but humanly imperceptible
perturbation (so-called adversarial examples). To tackle this problem, a great
amount of research has been done to study the training procedure of a network
to improve its robustness. However, most of the research so far has focused on
the case of supervised learning. With the increasing popularity of
self-supervised learning methods, it is also important to study and improve the
robustness of their resulting representation on the downstream tasks. In this
paper, we study the problem of robust representation learning with unlabeled
data in a task-agnostic manner. Specifically, we first derive an upper bound on
the adversarial loss of a prediction model (which is based on the learned
representation) on any downstream task, using its loss on the clean data and a
robustness regularizer. Moreover, the regularizer is task-independent, thus we
propose to minimize it directly during the representation learning phase to
make the downstream prediction model more robust. Extensive experiments show
that our method achieves preferable adversarial performance compared to
relevant baselines.
- Abstract(参考訳): ディープラーニングモデルはその入力の小さなが意図的に選択された摂動に対して極めて脆弱であることが報告されている。
特に、深層ネットワークは、クリーンな画像にほぼ最適の精度があるにもかかわらず、しばしば、最悪のケースで人間の目に見えない摂動(いわゆる敵の例)で画像を誤って分類する。
この問題に対処するために,ネットワークのトレーニング手順を学習し,堅牢性を改善するための研究が盛んに行われている。
しかし、これまでの研究のほとんどは教師あり学習の事例に焦点を当てている。
自己指導型学習手法の普及に伴い、下流タスクにおける結果の表現の頑健さを研究・改善することが重要である。
本稿では,ラベルなしデータを用いたロバスト表現学習の課題をタスクに依存しない方法で検討する。
具体的には、クリーンデータへの損失とロバスト性正規化子を用いて、下流タスクにおける予測モデル(学習した表現に基づく)の敵対的損失の上限を、まず導出する。
さらに,正規化器はタスク非依存であるので,表現学習フェーズにおいて直接的に最小化し,下流予測モデルをより堅牢にすることを提案する。
広範な実験により,本手法は関連するベースラインと比較して好適な敵性能が得られることが示された。
関連論文リスト
- The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Probing Representation Forgetting in Supervised and Unsupervised
Continual Learning [14.462797749666992]
破滅的な忘れ物は、以前にモデルで学んだ知識の急激な喪失と関係している。
表現を忘れることによって,モデル能力と損失関数が連続学習に与える影響について新たな知見が得られることを示す。
論文 参考訳(メタデータ) (2022-03-24T23:06:08Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - An Effective Baseline for Robustness to Distributional Shift [5.627346969563955]
ディープラーニングシステムの安全なデプロイには,トレーニング中に見られるものと異なる入力のカテゴリに直面した場合,確実な予測を控えることが重要な要件である。
本論文では, 吸収の原理を用いた分布異常検出の簡便かつ高効率な手法を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:46:11Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Enabling the Network to Surf the Internet [13.26679087834881]
我々はモデルがインターネットをサーフィンできるフレームワークを開発した。
学習表現の一般化能力は,自己教師付き学習に不可欠である。
miniImageNet, tieredImageNet, Omniglotの実験により, 提案フレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2021-02-24T11:00:29Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。