論文の概要: GReAT: A Graph Regularized Adversarial Training Method
- arxiv url: http://arxiv.org/abs/2310.05336v1
- Date: Mon, 9 Oct 2023 01:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 08:20:08.199071
- Title: GReAT: A Graph Regularized Adversarial Training Method
- Title(参考訳): GReAT: グラフ正規化逆行訓練手法
- Authors: Samet Bayram, Kenneth Barner
- Abstract要約: 本稿では,GReAT(Graph Regularized Adversarial Training)と呼ばれる正規化手法を提案する。
GReATは、データのグラフ構造を敵のトレーニングプロセスに展開することで、より堅牢なモデルを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes a regularization method called GReAT, Graph Regularized
Adversarial Training, to improve deep learning models' classification
performance. Adversarial examples are a well-known challenge in machine
learning, where small, purposeful perturbations to input data can mislead
models. Adversarial training, a powerful and one of the most effective defense
strategies, involves training models with both regular and adversarial
examples. However, it often neglects the underlying structure of the data. In
response, we propose GReAT, a method that leverages data graph structure to
enhance model robustness. GReAT deploys the graph structure of the data into
the adversarial training process, resulting in more robust models that better
generalize its testing performance and defend against adversarial attacks.
Through extensive evaluation on benchmark datasets, we demonstrate GReAT's
effectiveness compared to state-of-the-art classification methods, highlighting
its potential in improving deep learning models' classification performance.
- Abstract(参考訳): 本稿では、ディープラーニングモデルの分類性能を改善するために、GReAT(Graph Regularized Adversarial Training)と呼ばれる正規化手法を提案する。
逆例は機械学習においてよく知られた課題であり、入力データに対する小さな目的を持った摂動がモデルを誤解させる可能性がある。
敵の訓練(adversarial training)は、強力かつ最も効果的な防衛戦略の1つで、定期的な例と敵の例の両方でモデルを訓練する。
しかし、データの基本構造を無視することが多い。
そこで本研究では,データグラフ構造を利用したモデルロバスト性向上手法であるGReATを提案する。
GReATは、データグラフ構造を敵のトレーニングプロセスにデプロイすることで、テストパフォーマンスをより一般化し、敵の攻撃に対して防御する、より堅牢なモデルを実現する。
ベンチマークデータセットの広範な評価を通じて、GReATが最先端の分類手法と比較して有効であることを示し、ディープラーニングモデルの分類性能を改善する可能性を強調した。
関連論文リスト
- Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - OMG-ATTACK: Self-Supervised On-Manifold Generation of Transferable
Evasion Attacks [17.584752814352502]
Evasion Attacks (EA) は、入力データを歪ませることで、トレーニングされたニューラルネットワークの堅牢性をテストするために使用される。
本稿では, 自己教師型, 計算的経済的な手法を用いて, 対逆例を生成する手法を提案する。
我々の実験は、この手法が様々なモデル、目に見えないデータカテゴリ、さらには防御されたモデルで有効であることを一貫して実証している。
論文 参考訳(メタデータ) (2023-10-05T17:34:47Z) - Boosting Model Inversion Attacks with Adversarial Examples [26.904051413441316]
ブラックボックス設定において、より高い攻撃精度を達成できる学習ベースモデル反転攻撃のための新しい訓練パラダイムを提案する。
まず,攻撃モデルの学習過程を,意味的損失関数を追加して規則化する。
第2に、学習データに逆例を注入し、クラス関連部の多様性を高める。
論文 参考訳(メタデータ) (2023-06-24T13:40:58Z) - ESimCSE Unsupervised Contrastive Learning Jointly with UDA
Semi-Supervised Learning for Large Label System Text Classification Mode [4.708633772366381]
ESimCSEモデルは、ラベルのないデータを用いてテキストベクトル表現を効率よく学習し、より良い分類結果を得る。
UDAは、モデルと安定性の予測性能を改善するために、半教師付き学習手法を通じてラベルのないデータを用いて訓練される。
FGMとPGDは、モデルの堅牢性と信頼性を向上させるために、モデルトレーニングプロセスで使用される。
論文 参考訳(メタデータ) (2023-04-19T03:44:23Z) - Teacher Guided Training: An Efficient Framework for Knowledge Transfer [86.6784627427194]
高品質なコンパクトモデルを訓練するための教師誘導訓練(TGT)フレームワークを提案する。
TGTは、教師が基礎となるデータドメインの優れた表現を取得したという事実を利用する。
TGTは複数の画像分類ベンチマークやテキスト分類や検索タスクの精度を向上させることができる。
論文 参考訳(メタデータ) (2022-08-14T10:33:58Z) - SegPGD: An Effective and Efficient Adversarial Attack for Evaluating and
Boosting Segmentation Robustness [63.726895965125145]
ディープニューラルネットワークに基づく画像分類は、敵の摂動に弱い。
本研究では,SegPGDと呼ばれる効果的かつ効率的なセグメンテーション攻撃手法を提案する。
SegPGDはより効果的な敵の例を生成することができるため、SegPGDを用いた敵の訓練はセグメントモデルの堅牢性を高めることができる。
論文 参考訳(メタデータ) (2022-07-25T17:56:54Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Guiding Generative Language Models for Data Augmentation in Few-Shot
Text Classification [59.698811329287174]
我々は、GPT-2を用いて、分類性能を向上させるために、人工訓練インスタンスを生成する。
実験の結果,少数のラベルインスタンスでGPT-2を微調整すると,一貫した分類精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:10:03Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。