論文の概要: GAT: Guided Adversarial Training with Pareto-optimal Auxiliary Tasks
- arxiv url: http://arxiv.org/abs/2302.02907v2
- Date: Thu, 25 May 2023 08:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 22:49:08.030545
- Title: GAT: Guided Adversarial Training with Pareto-optimal Auxiliary Tasks
- Title(参考訳): GAT: Pareto-optimal Auxiliary Tasks を用いた指導的対人訓練
- Authors: Salah Ghamizi, Jingfeng Zhang, Maxime Cordy, Mike Papadakis, Masashi
Sugiyama, and Yves Le Traon
- Abstract要約: 本稿では,限られた訓練データの下で補助的なタスクを活用する新しい対人訓練手法を提案する。
本手法は, 対戦学習の最小値最適化において, シングルタスクモデルをマルチタスクモデルに拡張する。
我々は、ガイド付きマルチタスク学習が、モデルロバスト性の境界をさらに推し進めるために、実践的で有望な方法であることを実証する。
- 参考スコア(独自算出の注目度): 73.88590165742721
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While leveraging additional training data is well established to improve
adversarial robustness, it incurs the unavoidable cost of data collection and
the heavy computation to train models. To mitigate the costs, we propose Guided
Adversarial Training (GAT), a novel adversarial training technique that
exploits auxiliary tasks under a limited set of training data. Our approach
extends single-task models into multi-task models during the min-max
optimization of adversarial training, and drives the loss optimization with a
regularization of the gradient curvature across multiple tasks. GAT leverages
two types of auxiliary tasks: self-supervised tasks, where the labels are
generated automatically, and domain-knowledge tasks, where human experts
provide additional labels. Experimentally, GAT increases the robust AUC of
CheXpert medical imaging dataset from 50% to 83% and On CIFAR-10, GAT
outperforms eight state-of-the-art adversarial training and achieves 56.21%
robust accuracy with Resnet-50. Overall, we demonstrate that guided multi-task
learning is an actionable and promising avenue to push further the boundaries
of model robustness.
- Abstract(参考訳): 追加のトレーニングデータを活用することは、敵の堅牢性を改善するために十分に確立されているが、データ収集の避けられないコストと、モデルをトレーニングするための重い計算を引き起こす。
このコストを軽減するために,限られた訓練データの下で補助的なタスクを活用する新しい対人訓練技術であるガイド・ディバイサリー・トレーニング(GAT)を提案する。
提案手法は,1タスクモデルからマルチタスクモデルへ拡張し,複数のタスクにまたがる勾配曲率を正規化し,損失最適化を駆動する。
gatは、ラベルを自動的に生成するセルフ教師タスクと、人間の専門家が追加のラベルを提供するドメイン知識タスクの2つの補助タスクを活用する。
実験的に、GATはCheXpertの医用画像データセットのロバストAUCを50%から83%に増加させ、CIFAR-10では8つの最先端の対人訓練を上回り、Resnet-50で56.21%の堅牢な精度を達成した。
全体として、ガイド付きマルチタスク学習は、モデルロバスト性の境界をさらに推し進めるための実践的で有望な方法であることを示す。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - Reducing Adversarial Training Cost with Gradient Approximation [0.3916094706589679]
そこで本研究では,厳密なモデル構築に要するコストを削減するために,GAAT(グラディエント近似)を用いた対戦訓練法を提案する。
提案手法は,データセット上でのモデルテスト精度に比較して,トレーニング時間の最大60%を節約する。
論文 参考訳(メタデータ) (2023-09-18T03:55:41Z) - Instruction Tuned Models are Quick Learners [20.771930945083994]
そこで本研究では,各種タスクにおける指導調律モデルのサンプル効率について述べる。
STL設定では、下流列車データの25%を備えた指導調律モデルが下流タスクのSOTA性能を上回っている。
MTL設定では、下流のトレーニングデータの6%しか訓練されていない指導調律モデルがSOTAを達成する一方で、100%のトレーニングデータを使用することで3.69%の改善が達成される。
論文 参考訳(メタデータ) (2023-05-17T22:30:01Z) - Efficient Utilization of Large Pre-Trained Models for Low Resource ASR [31.57758062484189]
ベトナム語とドイツ語の医学領域から,低リソースの会話音声コーパスについて検討した。
本研究では,大規模事前学習モデルの簡易微調整を超えて,教師なし手法の利点を示す。
論文 参考訳(メタデータ) (2022-10-26T17:34:30Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Curriculum Learning: A Regularization Method for Efficient and Stable
Billion-Scale GPT Model Pre-Training [18.640076155697415]
本稿では,自己回帰モデルによる事前学習の収束速度の向上を支援するカリキュラム学習に基づく手法を提案する。
評価の結果,カリキュラム学習により,バッチサイズが8倍,学習速度が4倍のGPT-2モデルを学習できることがわかった。
論文 参考訳(メタデータ) (2021-08-13T06:32:53Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Efficient Adversarial Training with Transferable Adversarial Examples [58.62766224452761]
同じトレーニングプロセスにおいて、近隣のエポックからのモデル間で高い転送可能性があることが示される。
本稿では,ATTA(Adversarial Training with Transferable Adversarial Examples)を提案する。
論文 参考訳(メタデータ) (2019-12-27T03:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。