論文の概要: MixBoost: Improving the Robustness of Deep Neural Networks by Boosting
Data Augmentation
- arxiv url: http://arxiv.org/abs/2212.04059v1
- Date: Thu, 8 Dec 2022 03:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:30:34.533896
- Title: MixBoost: Improving the Robustness of Deep Neural Networks by Boosting
Data Augmentation
- Title(参考訳): MixBoost: データ強化によるディープニューラルネットワークのロバスト性向上
- Authors: Zhendong Liu, Wenyu Jiang, Min guo, Chongjun Wang
- Abstract要約: 我々は,AIモデルのロバスト性対策を包括的に改善する,マスベースのデータ拡張のためのブースティング手法を開発した。
提案手法はモデルの堅牢性を著しく向上するだけでなく,テストセットの精度も向上する。
- 参考スコア(独自算出の注目度): 6.541721770788069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As more and more artificial intelligence (AI) technologies move from the
laboratory to real-world applications, the open-set and robustness challenges
brought by data from the real world have received increasing attention. Data
augmentation is a widely used method to improve model performance, and some
recent works have also confirmed its positive effect on the robustness of AI
models. However, most of the existing data augmentation methods are heuristic,
lacking the exploration of their internal mechanisms. We apply the explainable
artificial intelligence (XAI) method, explore the internal mechanisms of
popular data augmentation methods, analyze the relationship between game
interactions and some widely used robustness metrics, and propose a new proxy
for model robustness in the open-set environment. Based on the analysis of the
internal mechanisms, we develop a mask-based boosting method for data
augmentation that comprehensively improves several robustness measures of AI
models and beats state-of-the-art data augmentation approaches. Experiments
show that our method can be widely applied to many popular data augmentation
methods. Different from the adversarial training, our boosting method not only
significantly improves the robustness of models, but also improves the accuracy
of test sets. Our code is available at
\url{https://github.com/Anonymous_for_submission}.
- Abstract(参考訳): 人工知能(AI)技術が実験室から現実のアプリケーションへと移行するにつれ、現実世界のデータによってもたらされるオープンセットとロバストネスの課題が注目されている。
データ拡張はモデルパフォーマンスを改善するために広く利用されている手法であり、最近の研究でもAIモデルの堅牢性に対する肯定的な影響が確認されている。
しかし、既存のデータ拡張手法のほとんどはヒューリスティックであり、内部メカニズムの探索が欠如している。
説明可能な人工知能(XAI)手法を適用し,一般的なデータ拡張手法の内部メカニズムを探索し,ゲームインタラクションと広く使用されているロバストネス指標の関係を解析し,オープンセット環境におけるモデルロバストネスのための新しいプロキシを提案する。
内部メカニズムの解析に基づいて,AIモデルの頑健性対策を包括的に改善し,最先端のデータ拡張アプローチを克服する,データ拡張のためのマスクベースのブースティング手法を開発した。
実験の結果,本手法は多くの一般的なデータ拡張法に広く適用できることがわかった。
敵対的なトレーニングとは異なり,本手法はモデルのロバスト性が大幅に向上するだけでなく,テストセットの精度も向上する。
私たちのコードは \url{https://github.com/Anonymous_for_submission} で利用可能です。
関連論文リスト
- Enhancing Dynamical System Modeling through Interpretable Machine
Learning Augmentations: A Case Study in Cathodic Electrophoretic Deposition [0.8796261172196743]
本稿では,物理システムのモデリング向上を目的とした包括的データ駆動フレームワークを提案する。
実証的応用として,電顕的電気泳動沈着(EPD)のモデル化を追求する。
論文 参考訳(メタデータ) (2024-01-16T14:58:21Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Understanding Data Augmentation from a Robustness Perspective [10.063624819905508]
データ拡張は、モデルの堅牢性を増幅するための重要なテクニックとして際立っている。
この写本は、この現象を理解するための理論的および実証的なアプローチを採っている。
我々の経験的評価は、エンブレマ的なデータ拡張戦略の複雑なメカニズムを解明するものである。
これらの洞察は、視覚認識タスクにおけるモデルの安全性と堅牢性を再評価する新しいレンズを提供する。
論文 参考訳(メタデータ) (2023-09-07T10:54:56Z) - Improving Generalization for Multimodal Fake News Detection [8.595270610973586]
最先端のアプローチは通常、小さなサイズのデータセットや特定のトピックの限定セットでトレーニングされる。
本稿では,マルチモーダルフェイクニュース検出のために,最先端のマルチモーダルトランスを採用した3つのモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T20:32:22Z) - A Guide for Practical Use of ADMG Causal Data Augmentation [0.0]
これらの課題に対処するためのソリューションとして、因果データ拡張戦略が指摘されている。
異なる設定を考慮したADMG因果拡大法を実験的に検討した。
論文 参考訳(メタデータ) (2023-04-03T09:31:13Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Cross-Modal Generative Augmentation for Visual Question Answering [34.9601948665926]
本稿では,複数のモダリティ間の相関を利用したデータ拡張生成モデルを提案する。
提案したモデルは,生成確率によって拡張データの信頼度を定量化し,下流パイプラインと共同して更新することができる。
論文 参考訳(メタデータ) (2021-05-11T04:51:26Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。