論文の概要: DiffuLT: How to Make Diffusion Model Useful for Long-tail Recognition
- arxiv url: http://arxiv.org/abs/2403.05170v1
- Date: Fri, 8 Mar 2024 09:19:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:15:30.913780
- Title: DiffuLT: How to Make Diffusion Model Useful for Long-tail Recognition
- Title(参考訳): DiffuLT: 長距離認識に拡散モデルを利用する方法
- Authors: Jie Shao and Ke Zhu and Hanxiao Zhang and Jianxin Wu
- Abstract要約: 本稿では,Long-tail (LT) 認識のための新しいパイプラインを提案する。
再重み付けや再サンプリングの代わりに、長い尾のデータセット自体を使用して、バランスの取れたプロキシを生成します。
具体的には、長い尾のデータセットに特化して訓練されたランダム拡散モデルを用いて、表現不足のクラスのための新しいサンプルを合成する。
- 参考スコア(独自算出の注目度): 25.842677223769943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a new pipeline for long-tail (LT) recognition. Instead of
re-weighting or re-sampling, we utilize the long-tailed dataset itself to
generate a balanced proxy that can be optimized through cross-entropy (CE).
Specifically, a randomly initialized diffusion model, trained exclusively on
the long-tailed dataset, is employed to synthesize new samples for
underrepresented classes. Then, we utilize the inherent information in the
original dataset to filter out harmful samples and keep the useful ones. Our
strategy, Diffusion model for Long-Tail recognition (DiffuLT), represents a
pioneering utilization of generative models in long-tail recognition. DiffuLT
achieves state-of-the-art results on CIFAR10-LT, CIFAR100-LT, and ImageNet-LT,
surpassing the best competitors with non-trivial margins. Abundant ablations
make our pipeline interpretable, too. The whole generation pipeline is done
without any external data or pre-trained model weights, making it highly
generalizable to real-world long-tailed settings.
- Abstract(参考訳): 本稿では,Long-tail(LT)認識のための新しいパイプラインを提案する。
再重み付けや再サンプリングの代わりに、長い尾のデータセット自体を使用して、クロスエントロピー(CE)を通じて最適化可能なバランスの取れたプロキシを生成します。
具体的には、ロングテールデータセットのみにトレーニングされたランダム初期化拡散モデルを用いて、未表示クラスのための新しいサンプルを合成する。
そして、元のデータセットに固有の情報を用いて有害なサンプルをフィルタリングし、有用なサンプルを保持する。
我々の戦略であるDiffusion model for Long-Tail Recognition (DiffuLT) は、ロングテール認識における生成モデルの先駆的活用である。
DiffuLTは、CIFAR10-LT、CIFAR100-LT、ImageNet-LTの最先端の成果を達成し、非自明なマージンを持つ最高の競争相手を上回っている。
過剰なアブレーションはパイプラインの解釈にも役立ちます
生成パイプライン全体は外部データや事前トレーニングされたモデルウェイトを使わずに実行され、現実世界の長期設定に非常に一般化できる。
関連論文リスト
- SparseTSF: Modeling Long-term Time Series Forecasting with 1k Parameters [16.966008476215258]
本稿では,長期時系列予測(LTSF)のための新しい,極めて軽量なモデルであるSparseTSFを紹介する。
SparseTSFの中心にはCross-Period Sparse Forecasting技術があり、時系列データの周期性と傾向を分離することで予測タスクを単純化する。
SparseTSFは目覚ましい一般化機能を示しており、限られた計算資源、小さなサンプル、低品質のデータを扱うシナリオに適している。
論文 参考訳(メタデータ) (2024-05-02T02:15:23Z) - Latent-based Diffusion Model for Long-tailed Recognition [10.410057703866899]
長い尾の不均衡分布は、実用的なコンピュータビジョンアプリケーションにおいて一般的な問題である。
そこで本稿では,Long-tailed Recognition (LDMLR) のための遅延型拡散モデル(Latent-based Diffusion Model for Long-tailed Recognition)を提案する。
モデルの精度は,提案手法を用いてCIFAR-LTおよびImageNet-LTデータセットの改善を示す。
論文 参考訳(メタデータ) (2024-04-06T06:15:07Z) - Long-Tailed Recognition on Binary Networks by Calibrating A Pre-trained Model [18.58663937035378]
高リソース効率のバイナリニューラルネットワークをバックボーンとして使用することで、長い尾の分布を学習するという課題に対処する。
そこで本研究では,バランスの取れたデータセットでトレーニングされた既訓練完全精度モデルを用いて,蒸留の教師として使用するキャリブレート・アンド・ディスティルフレームワークを提案する。
種々のデータセットをより一般化するために,目的関数の項間の新たな対角バランスと,効率的な多分解能学習手法を提案する。
論文 参考訳(メタデータ) (2024-03-30T08:37:19Z) - LTGC: Long-tail Recognition via Leveraging LLMs-driven Generated Content [17.022005679738733]
尾の認識は、尾のカテゴリから良い表現を学習し、すべてのカテゴリで不均衡に対処する必要があるため、困難である。
そこで本研究では,生成コンテンツを利用した長期認識を実現するための,新たな生成および微調整フレームワークLTGCを提案する。
論文 参考訳(メタデータ) (2024-03-09T09:52:15Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Unified Long-Term Time-Series Forecasting Benchmark [0.6526824510982802]
本稿では,時系列予測のための包括的データセットを提案する。
多様な動的システムと実生活記録から得られたデータセットのコレクションを組み込んだ。
多様なシナリオにおいて最も効果的なモデルを決定するために、古典的および最先端のモデルを用いて広範なベンチマーク分析を行う。
本研究は,これらのモデルの性能比較を興味深いものにし,モデルの有効性のデータセット依存性を強調した。
論文 参考訳(メタデータ) (2023-09-27T18:59:00Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Learning summary features of time series for likelihood free inference [93.08098361687722]
時系列データから要約機能を自動的に学習するためのデータ駆動型戦略を提案する。
以上の結果から,データから要約的特徴を学習することで,手作りの値に基づいてLFI手法よりも優れる可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-04T19:21:37Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。