論文の概要: Rethinking Cost-sensitive Classification in Deep Learning via
Adversarial Data Augmentation
- arxiv url: http://arxiv.org/abs/2208.11739v1
- Date: Wed, 24 Aug 2022 19:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:05:15.333078
- Title: Rethinking Cost-sensitive Classification in Deep Learning via
Adversarial Data Augmentation
- Title(参考訳): 逆データ拡張による深層学習におけるコスト感性分類の再考
- Authors: Qiyuan Chen, Raed Al Kontar, Maher Nouiehed, Jessie Yang, Corey Lester
- Abstract要約: コストに敏感な分類は、誤分類エラーがコストで大きく異なるアプリケーションにおいて重要である。
本稿では,過度パラメータ化モデルにコスト感受性を持たせるために,コスト依存型逆データ拡張フレームワークを提案する。
提案手法は,全体のコストを効果的に最小化し,臨界誤差を低減するとともに,全体的な精度で同等の性能を達成できる。
- 参考スコア(独自算出の注目度): 4.479834103607382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cost-sensitive classification is critical in applications where
misclassification errors widely vary in cost. However, over-parameterization
poses fundamental challenges to the cost-sensitive modeling of deep neural
networks (DNNs). The ability of a DNN to fully interpolate a training dataset
can render a DNN, evaluated purely on the training set, ineffective in
distinguishing a cost-sensitive solution from its overall accuracy maximization
counterpart. This necessitates rethinking cost-sensitive classification in
DNNs. To address this challenge, this paper proposes a cost-sensitive
adversarial data augmentation (CSADA) framework to make over-parameterized
models cost-sensitive. The overarching idea is to generate targeted adversarial
examples that push the decision boundary in cost-aware directions. These
targeted adversarial samples are generated by maximizing the probability of
critical misclassifications and used to train a model with more conservative
decisions on costly pairs. Experiments on well-known datasets and a pharmacy
medication image (PMI) dataset made publicly available show that our method can
effectively minimize the overall cost and reduce critical errors, while
achieving comparable performance in terms of overall accuracy.
- Abstract(参考訳): コストに敏感な分類は、誤分類エラーがコストで大きく異なるアプリケーションにおいて重要である。
しかし、過パラメータ化はディープニューラルネットワーク(DNN)のコスト感受性モデリングに根本的な課題をもたらす。
トレーニングデータセットを完全に補間するDNNの能力は、トレーニングセットに基づいて純粋に評価されたDNNをレンダリングすることができる。
これは、DNNにおけるコスト感受性の分類を再考する必要がある。
この課題に対処するため,本研究では,過パラメータモデルにコスト感受性を持たせるためのCSADAフレームワークを提案する。
包括的な考え方は、意思決定境界をコスト対応の方向に押し上げる、標的となる敵の例を生成することである。
これらのターゲットとなる敵のサンプルは、重要な誤分類の確率を最大化し、コストのかかるペアについてより保守的な決定を下すモデルを訓練することで生成される。
広く知られているデータセットと医薬品画像(PMI)データセットの公開実験により,本手法は全体のコストを効果的に最小化し,致命的なエラーを低減するとともに,全体的な精度で同等のパフォーマンスを達成できることが示された。
関連論文リスト
- Learning Decisions Offline from Censored Observations with ε-insensitive Operational Costs [1.7249361224827533]
我々は、オフラインのデータ駆動方式で、保護されていない検閲に対処するために、エプシロンに敏感な運用コストを設計し、活用する。
線形回帰(LR)モデルとニューラルネットワーク(NN)を含む2つの代表的なMLモデルを訓練する。
理論結果は,LR-epsilonNVC,LR-epsilonNVC-R,NN-epsilonNVCの安定性と学習性を明らかにする。
論文 参考訳(メタデータ) (2024-08-14T05:44:56Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - DRoP: Distributionally Robust Pruning [11.930434318557156]
我々は、訓練されたモデルの分類バイアスにデータプルーニングが与える影響について、最初の系統的研究を行う。
そこで我々はDRoPを提案する。DRoPは,標準的なコンピュータビジョンベンチマークにおいて,その性能を実証的に実証し,分散的に頑健な手法である。
論文 参考訳(メタデータ) (2024-04-08T14:55:35Z) - How Much Data are Enough? Investigating Dataset Requirements for Patch-Based Brain MRI Segmentation Tasks [74.21484375019334]
ディープニューラルネットワークを確実にトレーニングするには、大規模なデータセットへのアクセスが必要である。
モデル開発に関連する時間的・経済的コストを緩和するためには,満足度の高いモデルをトレーニングするために必要なデータの量を明確に理解することが重要である。
本稿では,パッチベースのセグメンテーションネットワークのトレーニングに必要なアノテートデータの量を推定するための戦略的枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-04T13:55:06Z) - A Deep Neural Network Based Approach to Building Budget-Constrained
Models for Big Data Analysis [11.562071835482223]
我々は,Deep Neural Networks (DNN) を用いたビッグデータ解析において,重要でない特徴を排除するアプローチを導入する。
弱いリンクと弱いニューロンを特定し、与えられた予算内にモデルコストをもたらすためにいくつかの入力特徴を取り除きます。
論文 参考訳(メタデータ) (2023-02-23T00:00:32Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Training Over-parameterized Models with Non-decomposable Objectives [46.62273918807789]
より一般的なコスト行列を扱うために,ロジット調整という古典的な考え方を拡張した新たなコスト感受性損失を提案する。
私たちの損失は校正され、教師モデルの蒸留ラベルでさらに改善できます。
論文 参考訳(メタデータ) (2021-07-09T19:29:33Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。