論文の概要: LTGC: Long-tail Recognition via Leveraging LLMs-driven Generated Content
- arxiv url: http://arxiv.org/abs/2403.05854v3
- Date: Wed, 13 Mar 2024 08:04:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 10:59:10.924717
- Title: LTGC: Long-tail Recognition via Leveraging LLMs-driven Generated Content
- Title(参考訳): LTGC:LLMによる生成コンテンツを活用したLong-tail認識
- Authors: Qihao Zhao, Yalun Dai, Hao Li, Wei Hu, Fan Zhang, Jun Liu
- Abstract要約: 尾の認識は、尾のカテゴリから良い表現を学習し、すべてのカテゴリで不均衡に対処する必要があるため、困難である。
そこで本研究では,生成コンテンツを利用した長期認識を実現するための,新たな生成および微調整フレームワークLTGCを提案する。
- 参考スコア(独自算出の注目度): 18.0367865288533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-tail recognition is challenging because it requires the model to learn
good representations from tail categories and address imbalances across all
categories. In this paper, we propose a novel generative and fine-tuning
framework, LTGC, to handle long-tail recognition via leveraging generated
content. Firstly, inspired by the rich implicit knowledge in large-scale models
(e.g., large language models, LLMs), LTGC leverages the power of these models
to parse and reason over the original tail data to produce diverse tail-class
content. We then propose several novel designs for LTGC to ensure the quality
of the generated data and to efficiently fine-tune the model using both the
generated and original data. The visualization demonstrates the effectiveness
of the generation module in LTGC, which produces accurate and diverse tail
data. Additionally, the experimental results demonstrate that our LTGC
outperforms existing state-of-the-art methods on popular long-tailed
benchmarks.
- Abstract(参考訳): 尾の認識は、尾のカテゴリから良い表現を学習し、すべてのカテゴリで不均衡に対処する必要があるため、困難である。
本稿では,生成コンテンツを利用した長期認識のための新しい生成・微調整フレームワークLTGCを提案する。
まず、大規模モデル(例えば、大規模言語モデル、LLM)における豊富な暗黙の知識にインスパイアされたLTGCは、これらのモデルのパワーを活用して、オリジナルのテールデータを解析し、推論し、多様なテールクラスのコンテンツを生成する。
そこで我々は,生成したデータの品質を保証し,生成したデータとオリジナルデータの両方を用いてモデルを効率よく微調整する,LTGCの新しい設計を提案する。
可視化はLTGCにおける生成モジュールの有効性を示し、正確で多様なテールデータを生成する。
さらに, 実験結果から, LTGCは, 一般的なロングテールベンチマークにおいて, 既存の最先端手法よりも優れていることが示された。
関連論文リスト
- DiffuLT: How to Make Diffusion Model Useful for Long-tail Recognition [25.842677223769943]
本稿では,Long-tail (LT) 認識のための新しいパイプラインを提案する。
再重み付けや再サンプリングの代わりに、長い尾のデータセット自体を使用して、バランスの取れたプロキシを生成します。
具体的には、長い尾のデータセットに特化して訓練されたランダム拡散モデルを用いて、表現不足のクラスのための新しいサンプルを合成する。
論文 参考訳(メタデータ) (2024-03-08T09:19:29Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [72.52996858794533]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
まず,大規模言語モデルの助けを借りて実世界のプロンプトリストを解析し,テキスト・ビデオ生成のための新しいプロンプトリストを作成する。
次に、視覚的品質、コンテンツ品質、動作品質、テキストキャプションアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and
Reproducibility-driven Analysis [69.46993865095247]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Augmenting Interpretable Models with LLMs during Training [73.40079895413861]
本稿では,効率よく解釈可能なモデルを構築するための拡張解釈モデル (Aug-imodels) を提案する。
Aug-imodel は、フィッティング時に LLM を使用するが、推論中に使用せず、完全な透明性を実現する。
自然言語処理におけるAug-imodelのインスタンス化について検討する: (i) Aug-GAM, (ii) Aug-Tree, (ii) LLM機能拡張による決定木の拡大。
論文 参考訳(メタデータ) (2022-09-23T18:36:01Z) - Improving GANs for Long-Tailed Data through Group Spectral
Regularization [51.58250647277375]
本稿では, スペクトル爆発によるモード崩壊を防止する新しいグループスペクトル正規化器 (gSR) を提案する。
我々は,gSRが既存の拡張および正規化技術と効果的に組み合わせることで,長期化データ上での最先端の画像生成性能が向上することを発見した。
論文 参考訳(メタデータ) (2022-08-21T17:51:05Z) - Teacher Guided Training: An Efficient Framework for Knowledge Transfer [86.6784627427194]
高品質なコンパクトモデルを訓練するための教師誘導訓練(TGT)フレームワークを提案する。
TGTは、教師が基礎となるデータドメインの優れた表現を取得したという事実を利用する。
TGTは複数の画像分類ベンチマークやテキスト分類や検索タスクの精度を向上させることができる。
論文 参考訳(メタデータ) (2022-08-14T10:33:58Z) - Long-Tailed Classification with Gradual Balanced Loss and Adaptive
Feature Generation [19.17617301462919]
本研究では,不均衡を緩和する新しい手法であるGradual Balanced Loss and Adaptive Feature Generator (GLAG)を提案する。
CIFAR100-LT、ImageNetLT、iNaturalistなどのロングテールデータセットで最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-02-28T01:20:35Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Exploring Long Tail Visual Relationship Recognition with Large
Vocabulary [40.51076584921913]
我々は,Long-Tail Visual Relationship Recognition(LTVRR)の課題に関する最初の大規模研究を行っている。
LTVRRは、ロングテールから得られる構造化された視覚的関係の学習を改善することを目的としている。
VG8K-LTとGQA-LTという2つのLTVRR関連ベンチマークを導入する。
論文 参考訳(メタデータ) (2020-03-25T19:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。