論文の概要: Improving Machine Learning Robustness via Adversarial Training
- arxiv url: http://arxiv.org/abs/2309.12593v1
- Date: Fri, 22 Sep 2023 02:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 16:13:41.188652
- Title: Improving Machine Learning Robustness via Adversarial Training
- Title(参考訳): 対人訓練による機械学習のロバスト性向上
- Authors: Long Dang, Thushari Hapuarachchi, Kaiqi Xiong, Jing Lin
- Abstract要約: 本研究では,中央集権・分散環境における対人訓練によるMLの堅牢性について検討する。
中央集権環境では,敵の例を分類すると65.41%,83.0%の検査精度が得られる。
分散環境下では,独立・同一分散(IID)と非IIDデータを用いた対人訓練を用いて,フェデレートラーニング(FL)の堅牢性について検討する。
- 参考スコア(独自算出の注目度): 3.7942983866014073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Machine Learning (ML) is increasingly used in solving various tasks in
real-world applications, it is crucial to ensure that ML algorithms are robust
to any potential worst-case noises, adversarial attacks, and highly unusual
situations when they are designed. Studying ML robustness will significantly
help in the design of ML algorithms. In this paper, we investigate ML
robustness using adversarial training in centralized and decentralized
environments, where ML training and testing are conducted in one or multiple
computers. In the centralized environment, we achieve a test accuracy of 65.41%
and 83.0% when classifying adversarial examples generated by Fast Gradient Sign
Method and DeepFool, respectively. Comparing to existing studies, these results
demonstrate an improvement of 18.41% for FGSM and 47% for DeepFool. In the
decentralized environment, we study Federated learning (FL) robustness by using
adversarial training with independent and identically distributed (IID) and
non-IID data, respectively, where CIFAR-10 is used in this research. In the IID
data case, our experimental results demonstrate that we can achieve such a
robust accuracy that it is comparable to the one obtained in the centralized
environment. Moreover, in the non-IID data case, the natural accuracy drops
from 66.23% to 57.82%, and the robust accuracy decreases by 25% and 23.4% in
C&W and Projected Gradient Descent (PGD) attacks, compared to the IID data
case, respectively. We further propose an IID data-sharing approach, which
allows for increasing the natural accuracy to 85.04% and the robust accuracy
from 57% to 72% in C&W attacks and from 59% to 67% in PGD attacks.
- Abstract(参考訳): 機械学習(ML)が現実世界のアプリケーションで様々なタスクを解くのにますます使われているため、MLアルゴリズムが最悪の場合のノイズや敵攻撃、設計時に非常に異常な状況に対して堅牢であることを保証することが不可欠である。
MLの堅牢性を研究することは、MLアルゴリズムの設計に大いに役立つだろう。
本稿では,複数のコンピュータでMLトレーニングとテストを行う集中型・分散型環境において,対向学習を用いたMLロバスト性について検討する。
集中環境では,Fast Gradient Sign Method と DeepFool によって生成された逆数例をそれぞれ分類すると,65.41% と 83.0% の試験精度が得られる。
これまでの研究では、FGSMでは18.41%、DeepFoolでは47%の改善が見られた。
分散環境では,cifar-10を用いて,独立分散(iid)と非iid(non-iid)データを用いた敵対的学習を用いて,連合学習(fl)の堅牢性について検討する。
IIDデータの場合, 実験結果から, 集中環境において得られたものと同等の精度を達成できることが示されている。
また、非iidデータの場合、自然精度は66.23%から57.82%に低下し、c&wおよび投影勾配降下(pgd)攻撃のロバスト精度は、それぞれiidデータケースと比較して25%、23.4%低下する。
さらに,c&w攻撃では85.04%,c&w攻撃では57%から72%,pgd攻撃では59%から67%に,自然精度を85.04%に向上させるiidデータ共有手法を提案する。
関連論文リスト
- Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Machine learning-based network intrusion detection for big and
imbalanced data using oversampling, stacking feature embedding and feature
extraction [6.374540518226326]
侵入検知システム(IDS)は、悪意あるアクターや活動を検出することによって相互接続ネットワークを保護する上で重要な役割を果たす。
本稿では,データ不均衡にRandom Oversampling (RO) を用いる新しいMLベースのネットワーク侵入検出モデルと,次元削減のためのStacking Feature Embedding (PCA)を提案する。
CIC-IDS 2017データセットを使用すると、DT、RF、ETモデルは99.99%の精度に達し、DTとRFモデルはCIC-IDS 2018データセットで99.94%の精度が得られる。
論文 参考訳(メタデータ) (2024-01-22T05:49:41Z) - An AI-enabled Bias-Free Respiratory Disease Diagnosis Model using Cough
Audio: A Case Study for COVID-19 [1.1146119513912156]
トレーニングデータ配信における共同創設者の影響を軽減するため, Bias Free Network (RBFNet) を提案する。
RBFNetは正確なRD診断機能を保証し、COVID19データセットを組み込むことでその関連性を強調する。
条件付き生成Adrial Network (cGAN) を定式化するための分類スキームに新たなバイアス予測器が組み込まれている
論文 参考訳(メタデータ) (2024-01-04T13:09:45Z) - Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - Low-Quality Training Data Only? A Robust Framework for Detecting Encrypted Malicious Network Traffic [19.636282208765547]
機械学習モデルが低品質のトレーニングデータでトレーニングされると、パフォーマンスが低下する。
特徴空間における正常なトラフィックと悪意のあるトラフィックの分布を完全に活用するRAPIERを開発した。
RAPIERは、暗号化された悪意のあるトラフィック検出を、最高のF1スコアである0.773で効果的に達成し、既存のメソッドのF1スコアを平均272.5%改善する。
論文 参考訳(メタデータ) (2023-09-09T13:49:30Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - Precision-Weighted Federated Learning [1.8160945635344528]
フェデレート学習環境で訓練されたモデルのパラメータの重み付け平均を計算する際に,勾配のばらつきを考慮した新しいアルゴリズムを提案する。
本手法は,2つの異なるデータ分割戦略 (IID/non-IID) を持つ標準画像分類データセットを用いて,資源制約環境下での手法の性能と速度を測定した。
論文 参考訳(メタデータ) (2021-07-20T17:17:10Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - To be Robust or to be Fair: Towards Fairness in Adversarial Training [83.42241071662897]
逆行訓練アルゴリズムは、異なるデータ群間の精度と堅牢性に深刻な違いをもたらす傾向がある。
本稿では、敵防衛を行う際の不公平問題を軽減するためのFair-Robust-Learning(FRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T02:21:54Z) - Stable Adversarial Learning under Distributional Shifts [46.98655899839784]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
本研究では、異種データソースを活用してより実用的な不確実性セットを構築する安定適応学習(SAL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-08T08:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。