論文の概要: Data-Centric Long-Tailed Image Recognition
- arxiv url: http://arxiv.org/abs/2311.01744v1
- Date: Fri, 3 Nov 2023 06:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:59:52.822084
- Title: Data-Centric Long-Tailed Image Recognition
- Title(参考訳): データ中心長周期画像認識
- Authors: Yanbiao Ma, Licheng Jiao, Fang Liu, Shuyuan Yang, Xu Liu, Puhua Chen
- Abstract要約: ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
- 参考スコア(独自算出の注目度): 49.90107582624604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of the long-tail scenario, models exhibit a strong demand for
high-quality data. Data-centric approaches aim to enhance both the quantity and
quality of data to improve model performance. Among these approaches,
information augmentation has been progressively introduced as a crucial
category. It achieves a balance in model performance by augmenting the richness
and quantity of samples in the tail classes. However, there is currently a lack
of research into the underlying mechanisms explaining the effectiveness of
information augmentation methods. Consequently, the utilization of information
augmentation in long-tail recognition tasks relies heavily on empirical and
intricate fine-tuning. This work makes two primary contributions. Firstly, we
approach the problem from the perspectives of feature diversity and
distribution shift, introducing the concept of Feature Diversity Gain (FDG) to
elucidate why information augmentation is effective. We find that the
performance of information augmentation can be explained by FDG, and its
performance peaks when FDG achieves an appropriate balance. Experimental
results demonstrate that by using FDG to select augmented data, we can further
enhance model performance without the need for any modifications to the model's
architecture. Thus, data-centric approaches hold significant potential in the
field of long-tail recognition, beyond the development of new model structures.
Furthermore, we systematically introduce the core components and fundamental
tasks of a data-centric long-tail learning framework for the first time. These
core components guide the implementation and deployment of the system, while
the corresponding fundamental tasks refine and expand the research area.
- Abstract(参考訳): ロングテールシナリオの文脈では、モデルは高品質なデータに対する強い需要を示す。
データ中心のアプローチは、データ量と品質の両方を高め、モデルパフォーマンスを改善することを目的としている。
これらのアプローチのうち、情報拡張は重要カテゴリーとして徐々に導入されている。
テールクラスにおけるサンプルの豊かさと量を増加させることで、モデル性能のバランスを実現する。
しかし,現在,情報拡張手法の有効性を説明する基礎的なメカニズムに関する研究が不足している。
したがって、ロングテール認識タスクにおける情報拡張の利用は、経験的かつ複雑な微調整に大きく依存する。
この作品には2つの大きな貢献がある。
まず,特徴多様性と分布シフトの観点から,情報拡張が有効である理由を明らかにするために,FDG(Feature Diversity Gain)の概念を導入する。
情報拡張性能はfdgによって説明でき、fdgが適切なバランスに達すると、その性能ピークに達することが判明した。
実験の結果,拡張データの選択にfdgを用いることで,モデルアーキテクチャの変更を必要とせず,さらなるモデル性能の向上が期待できることがわかった。
したがって、データ中心のアプローチは、新しいモデル構造の開発を超えて、ロングテール認識の分野で大きな可能性を秘めている。
さらに、データ中心のロングテール学習フレームワークのコアコンポーネントと基本的なタスクを初めて体系的に導入する。
これらのコアコンポーネントはシステムの実装とデプロイをガイドし、それに対応する基本的なタスクは研究領域を洗練・拡張する。
関連論文リスト
- A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Data Augmentation for Multivariate Time Series Classification: An Experimental Study [1.5390962520179197]
これらのデータセットのサイズは限られていますが、RocketとInceptionTimeモデルを使用して、13のデータセットのうち10の分類精度を向上しました。
これは、コンピュータビジョンで見られる進歩と並行して、効果的なモデルを訓練する上で、十分なデータの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-10T17:58:02Z) - ADLDA: A Method to Reduce the Harm of Data Distribution Shift in Data Augmentation [11.887799310374174]
本研究では,データ分散シフトの負の影響を軽減することを目的とした新しいデータ拡張手法であるADLDAを紹介する。
実験により、ADLDAは複数のデータセットにわたるモデル性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-05-11T03:20:35Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - DiffsFormer: A Diffusion Transformer on Stock Factor Augmentation [36.75453713794983]
トランスフォーマーアーキテクチャを用いたストックファクタ生成のための拡散モデル(DiffsFormer)を提案する。
特定の下流タスクを提示すると、既存のサンプルを編集してトレーニング手順を強化するためにDiffsFormerを使用します。
提案手法は,各データセットの年次リターン率の7.2%と27.8%を相対的に改善する。
論文 参考訳(メタデータ) (2024-02-05T03:54:36Z) - Phased Data Augmentation for Training a Likelihood-Based Generative Model with Limited Data [0.0]
生成モデルは現実的なイメージの作成に優れていますが、トレーニングのための広範なデータセットに依存しているため、大きな課題があります。
現在のデータ効率の手法はGANアーキテクチャに重点を置いており、他の生成モデルの訓練にギャップを残している。
位相データ拡張(phased data augmentation)は、このギャップに対処する新しい手法であり、データ分散に固有の変更を加えることなく、限られたデータシナリオでのトレーニングを最適化する。
論文 参考訳(メタデータ) (2023-05-22T03:38:59Z) - Instance-Conditioned GAN Data Augmentation for Representation Learning [29.36473147430433]
DA_IC-GANは、学習可能なデータ拡張モジュールで、ほとんどの最先端のトレーニングレシピと組み合わせて、棚外で使用することができる。
DA_IC-GAN は最大容量モデルで 1%p から 2%p の精度を向上できることを示す。
また,DA_IC-GANを自己指導型トレーニングレシピと組み合わせることで,いくつかの設定で1%pの精度向上が達成できることを示す。
論文 参考訳(メタデータ) (2023-03-16T22:45:43Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。