論文の概要: Adversarial Examples for Good: Adversarial Examples Guided Imbalanced
Learning
- arxiv url: http://arxiv.org/abs/2201.12356v1
- Date: Fri, 28 Jan 2022 09:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 15:19:04.674720
- Title: Adversarial Examples for Good: Adversarial Examples Guided Imbalanced
Learning
- Title(参考訳): 善の逆例:不均衡学習を指導する逆例
- Authors: Jie Zhang, Lei Zhang, Gang Li, Chao Wu
- Abstract要約: 不均衡データの扱い方に関する新たな視点として,GAE(Guiding Adversarial Examples)によるトレーニングによるバイアス付き決定境界の調整について述べる。
本手法は,少数クラスの精度を効果的に向上し,多数派の精度を損なうことができる。
- 参考スコア(独自算出の注目度): 15.370413523189749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples are inputs for machine learning models that have been
designed by attackers to cause the model to make mistakes. In this paper, we
demonstrate that adversarial examples can also be utilized for good to improve
the performance of imbalanced learning. We provide a new perspective on how to
deal with imbalanced data: adjust the biased decision boundary by training with
Guiding Adversarial Examples (GAEs). Our method can effectively increase the
accuracy of minority classes while sacrificing little accuracy on majority
classes. We empirically show, on several benchmark datasets, our proposed
method is comparable to the state-of-the-art method. To our best knowledge, we
are the first to deal with imbalanced learning with adversarial examples.
- Abstract(参考訳): 逆の例は、攻撃者がモデルをミスさせるよう設計した機械学習モデルの入力である。
本稿では,不均衡学習の性能向上のために,逆例も有効に活用できることを実証する。
我々は,不均衡なデータの扱い方について,GAE(Guiding Adversarial Examples)によるトレーニングによってバイアス付き決定境界を調整するという,新たな視点を提供する。
本手法は,少数クラスの精度を効果的に向上し,多数派の精度を損なうことができる。
いくつかのベンチマークデータセットにおいて,提案手法は最先端手法に匹敵することを示す。
最善の知識として、我々は、逆の例で不均衡な学習を扱う最初の人です。
関連論文リスト
- Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - The Enemy of My Enemy is My Friend: Exploring Inverse Adversaries for
Improving Adversarial Training [72.39526433794707]
敵の訓練とその変種は、敵の例に対抗して最も効果的なアプローチであることが示されている。
本稿では,モデルが類似した出力を生成することを奨励する,新たな対角訓練手法を提案する。
本手法は,最先端のロバスト性および自然な精度を実現する。
論文 参考訳(メタデータ) (2022-11-01T15:24:26Z) - Balanced Adversarial Training: Balancing Tradeoffs between Fickleness
and Obstinacy in NLP Models [21.06607915149245]
本研究は, 標準的な対人訓練手法により, ファックル対人例に対してより脆弱なモデルが得られることを示す。
本研究では, 対外学習を取り入れて, 対外的対外的対外的対外的対外的対外的対外的対外的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対人的対
論文 参考訳(メタデータ) (2022-10-20T18:02:07Z) - Easy Batch Normalization [73.89838982331453]
簡単な例は、機械学習モデルが高い信頼性で正しく分類するサンプルである。
本稿では,標準および堅牢な精度向上のための簡単な例として,補助バッチ正規化を提案する。
論文 参考訳(メタデータ) (2022-07-18T21:01:09Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - When in Doubt, Summon the Titans: Efficient Inference with Large Models [80.2673230098021]
本稿では,大規模モデルのモデル化の利点を実現する蒸留に基づく2段階の枠組みを提案する。
簡単な"例のサブセットでのみ正確な予測を行うために、私たちは、大きな教師モデルを使用して、軽量な学生モデルをガイドします。
提案した蒸留法は, 簡単な事例のみを扱うため, 学生規模でより積極的なトレードオフが可能であり, 推論の償却コストを低減できる。
論文 参考訳(メタデータ) (2021-10-19T22:56:49Z) - Calibrated Adversarial Training [8.608288231153304]
本稿では, 対人訓練における意味摂動の悪影響を低減させる手法であるCalibrated Adversarial Trainingを提案する。
この方法は, 新たな校正ロバスト誤差に基づいて, 摂動に対する画素レベルの適応を生成する。
論文 参考訳(メタデータ) (2021-10-01T19:17:28Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。