論文の概要: How to train your draGAN: A task oriented solution to imbalanced
classification
- arxiv url: http://arxiv.org/abs/2211.10065v1
- Date: Fri, 18 Nov 2022 07:37:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 15:27:20.981625
- Title: How to train your draGAN: A task oriented solution to imbalanced
classification
- Title(参考訳): draGANのトレーニング方法:不均衡な分類のためのタスク指向のソリューション
- Authors: Leon O. Guertler, Andri Ashfahani, Anh Tuan Luu
- Abstract要約: 本稿では,新しいアーキテクチャであるdraGANを用いた,ユニークでパフォーマンスを重視したデータ生成戦略を提案する。
サンプルは、実際のデータと類似性ではなく、分類モデルの性能を最適化する目的で生成される。
経験的に、draGANの優位性を示すと同時に、いくつかの欠点も強調する。
- 参考スコア(独自算出の注目度): 15.893327571516016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The long-standing challenge of building effective classification models for
small and imbalanced datasets has seen little improvement since the creation of
the Synthetic Minority Over-sampling Technique (SMOTE) over 20 years ago.
Though GAN based models seem promising, there has been a lack of purpose built
architectures for solving the aforementioned problem, as most previous studies
focus on applying already existing models. This paper proposes a unique,
performance-oriented, data-generating strategy that utilizes a new
architecture, coined draGAN, to generate both minority and majority samples.
The samples are generated with the objective of optimizing the classification
model's performance, rather than similarity to the real data. We benchmark our
approach against state-of-the-art methods from the SMOTE family and competitive
GAN based approaches on 94 tabular datasets with varying degrees of imbalance
and linearity. Empirically we show the superiority of draGAN, but also
highlight some of its shortcomings. All code is available on:
https://github.com/LeonGuertler/draGAN.
- Abstract(参考訳): 20年以上前にSMOTE(Synthetic Minority Over-Sampling Technique)が作成されて以来、小さなデータセットと不均衡なデータセットの効果的な分類モデルを構築するという長年にわたる課題はほとんど改善されていない。
ganベースのモデルは有望と思われるが、これまでのほとんどの研究は既存のモデルの適用に焦点を当てているため、上記の問題を解決するために構築された目的のアーキテクチャが欠如している。
本稿では,新しいアーキテクチャであるdraganを用いてマイノリティと多数派の両方のサンプルを生成する,ユニークなパフォーマンス指向のデータ生成戦略を提案する。
サンプルは、実際のデータと類似性ではなく、分類モデルの性能を最適化する目的で生成される。
我々は、SMOTEファミリーの最先端手法に対するアプローチと、不均衡と線形性の異なる94の表型データセットに基づく競争的GANベースのアプローチをベンチマークする。
経験的に、draGANの優位性を示すと同時に、いくつかの欠点も強調する。
すべてのコードは、https://github.com/LeonGuertler/draGANで利用可能である。
関連論文リスト
- Model-GLUE: Democratized LLM Scaling for A Large Model Zoo in the Wild [84.57103623507082]
本稿では,全体論的な大規模言語モデルスケーリングガイドラインであるModel-GLUEを紹介する。
我々の研究は、既存のLCMスケーリングテクニック、特に選択的マージと混合のバリエーションのベンチマークから始まります。
我々の手法は、マージ可能なモデルのクラスタリングと最適なマージ戦略選択、モデルミックスによるクラスタの統合を含む。
論文 参考訳(メタデータ) (2024-10-07T15:55:55Z) - FissionFusion: Fast Geometric Generation and Hierarchical Souping for Medical Image Analysis [0.7751705157998379]
十分に注釈付けされた医療データセットの不足は、ImageNetのような広範なデータセットやCLIPのような事前訓練されたモデルからの移行学習を活用する必要がある。
モデルスープは、In-Domain(ID)タスクのパフォーマンスを改善し、out-of-Distribution(OOD)データセットに対する堅牢性を高めることを目的とした、複数の微調整されたモデルの平均である。
本稿では,様々なレベルのモデルの局所的および大域的集約を伴う階層的統合手法を提案する。
論文 参考訳(メタデータ) (2024-03-20T06:48:48Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Target-Aware Generative Augmentations for Single-Shot Adaptation [21.840653627684855]
我々は、ソースドメインからターゲットドメインへのモデル適応のための新しいアプローチを提案する。
SiSTAは、単一ショットターゲットを用いてソースドメインから生成モデルを微調整し、その後、合成ターゲットデータをキュレートするための新しいサンプリング戦略を用いる。
顔検出や多クラス物体認識において,SiSTAは既存のベースラインよりも大幅に向上していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T17:46:26Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z) - Enhanced Balancing GAN: Minority-class Image Generation [0.7310043452300734]
GAN(Generative Adversarial Network)は、最も強力な生成モデルの一つである。
この問題を軽減するため、BAGAN(Bavalancing GAN)が提案されているが、異なるクラスの画像が似ていると不安定である。
本研究では,ラベル付き潜在ベクトルを分散する中間埋め込みモデルを用いた教師付きオートエンコーダを提案する。
提案モデルでは,従来のBAGANの不安定な問題を克服し,より高速で高品質な世代に収束する。
論文 参考訳(メタデータ) (2020-10-31T05:03:47Z) - Conditional Wasserstein GAN-based Oversampling of Tabular Data for
Imbalanced Learning [10.051309746913512]
本稿では,条件付きWasserstein GANに基づくオーバーサンプリング手法を提案する。
実世界の7つのデータセット上で,標準的なオーバーサンプリング手法と不均衡なベースラインに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-08-20T20:33:56Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。