論文の概要: GReAT: A Graph Regularized Adversarial Training Method
- arxiv url: http://arxiv.org/abs/2310.05336v1
- Date: Mon, 9 Oct 2023 01:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 08:20:08.199071
- Title: GReAT: A Graph Regularized Adversarial Training Method
- Title(参考訳): GReAT: グラフ正規化逆行訓練手法
- Authors: Samet Bayram, Kenneth Barner
- Abstract要約: 本稿では,GReAT(Graph Regularized Adversarial Training)と呼ばれる正規化手法を提案する。
GReATは、データのグラフ構造を敵のトレーニングプロセスに展開することで、より堅牢なモデルを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes a regularization method called GReAT, Graph Regularized
Adversarial Training, to improve deep learning models' classification
performance. Adversarial examples are a well-known challenge in machine
learning, where small, purposeful perturbations to input data can mislead
models. Adversarial training, a powerful and one of the most effective defense
strategies, involves training models with both regular and adversarial
examples. However, it often neglects the underlying structure of the data. In
response, we propose GReAT, a method that leverages data graph structure to
enhance model robustness. GReAT deploys the graph structure of the data into
the adversarial training process, resulting in more robust models that better
generalize its testing performance and defend against adversarial attacks.
Through extensive evaluation on benchmark datasets, we demonstrate GReAT's
effectiveness compared to state-of-the-art classification methods, highlighting
its potential in improving deep learning models' classification performance.
- Abstract(参考訳): 本稿では、ディープラーニングモデルの分類性能を改善するために、GReAT(Graph Regularized Adversarial Training)と呼ばれる正規化手法を提案する。
逆例は機械学習においてよく知られた課題であり、入力データに対する小さな目的を持った摂動がモデルを誤解させる可能性がある。
敵の訓練(adversarial training)は、強力かつ最も効果的な防衛戦略の1つで、定期的な例と敵の例の両方でモデルを訓練する。
しかし、データの基本構造を無視することが多い。
そこで本研究では,データグラフ構造を利用したモデルロバスト性向上手法であるGReATを提案する。
GReATは、データグラフ構造を敵のトレーニングプロセスにデプロイすることで、テストパフォーマンスをより一般化し、敵の攻撃に対して防御する、より堅牢なモデルを実現する。
ベンチマークデータセットの広範な評価を通じて、GReATが最先端の分類手法と比較して有効であることを示し、ディープラーニングモデルの分類性能を改善する可能性を強調した。
関連論文リスト
- A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness [52.9493817508055]
我々は,モデルがゼロショットの逆方向のロバスト性を高めるために,事前訓練されたモデル誘導逆方向の微調整(PMG-AFT)を提案する。
私たちのアプローチは、平均8.72%のクリーンな精度を継続的に改善します。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - ESimCSE Unsupervised Contrastive Learning Jointly with UDA
Semi-Supervised Learning for Large Label System Text Classification Mode [4.708633772366381]
ESimCSEモデルは、ラベルのないデータを用いてテキストベクトル表現を効率よく学習し、より良い分類結果を得る。
UDAは、モデルと安定性の予測性能を改善するために、半教師付き学習手法を通じてラベルのないデータを用いて訓練される。
FGMとPGDは、モデルの堅牢性と信頼性を向上させるために、モデルトレーニングプロセスで使用される。
論文 参考訳(メタデータ) (2023-04-19T03:44:23Z) - SegPGD: An Effective and Efficient Adversarial Attack for Evaluating and
Boosting Segmentation Robustness [63.726895965125145]
ディープニューラルネットワークに基づく画像分類は、敵の摂動に弱い。
本研究では,SegPGDと呼ばれる効果的かつ効率的なセグメンテーション攻撃手法を提案する。
SegPGDはより効果的な敵の例を生成することができるため、SegPGDを用いた敵の訓練はセグメントモデルの堅牢性を高めることができる。
論文 参考訳(メタデータ) (2022-07-25T17:56:54Z) - Lagrangian Objective Function Leads to Improved Unforeseen Attack
Generalization in Adversarial Training [0.0]
対人訓練(AT)は、訓練中に使用される攻撃に対して堅牢なモデルに到達するのに有効であることが示されている。
我々は、上記の問題を緩和する簡易なAT修正を提案する。
我々は,攻撃の一般化を意図した他の攻撃手法よりも,攻撃速度が速いことを示す。
論文 参考訳(メタデータ) (2021-03-29T07:23:46Z) - Evaluating the Robustness of Geometry-Aware Instance-Reweighted
Adversarial Training [9.351384969104771]
Geometry-aware Instance-reweighted Adversarial Training」と呼ばれる手法の堅牢性を評価する。
この方法でトレーニングされたネットワークは、損失の再スケーリングによってモデルが特定のサンプルに偏っていることが分かりました。
論文 参考訳(メタデータ) (2021-03-02T18:15:42Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。