論文の概要: Semantics-Aware Generative Latent Data Augmentation for Learning in Low-Resource Domains
- arxiv url: http://arxiv.org/abs/2602.02841v1
- Date: Mon, 02 Feb 2026 21:43:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.101859
- Title: Semantics-Aware Generative Latent Data Augmentation for Learning in Low-Resource Domains
- Title(参考訳): 低リソース領域における学習のためのセマンティクスを考慮した生成潜在データ拡張
- Authors: Jae-Sung Bae, Minje Kim,
- Abstract要約: 本稿では,ジェネリックデータ拡張フレームワークであるGeLDAを提案する。
この空間は低次元であり、入力空間と比較してタスク関連情報に集中するため、GeLDAは効率的で高品質なデータ生成を可能にする。
ゼロショット言語固有の音声感情認識において、GeLDAは、Whisper-largeベースラインの未重み付き平均リコールを6.13%改善し、(b)ロングテール画像分類では、ImageNet-LT上で74.7%のテールクラスの精度を達成する。
- 参考スコア(独自算出の注目度): 27.911250327145115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite strong performance in data-rich regimes, deep learning often underperforms in the data-scarce settings common in practice. While foundation models (FMs) trained on massive datasets demonstrate strong generalization by extracting general-purpose features, they can still suffer from scarce labeled data during downstream fine-tuning. To address this, we propose GeLDA, a semantics-aware generative latent data augmentation framework that leverages conditional diffusion models to synthesize samples in an FM-induced latent space. Because this space is low-dimensional and concentrates task-relevant information compared to the input space, GeLDA enables efficient, high-quality data generation. GeLDA conditions generation on auxiliary feature vectors that capture semantic relationships among classes or subdomains, facilitating data augmentation in low-resource domains. We validate GeLDA in two large-scale recognition tasks: (a) in zero-shot language-specific speech emotion recognition, GeLDA improves the Whisper-large baseline's unweighted average recall by 6.13%; and (b) in long-tailed image classification, it achieves 74.7% tail-class accuracy on ImageNet-LT, setting a new state-of-the-art result.
- Abstract(参考訳): データリッチなレシエーションの強いパフォーマンスにもかかわらず、ディープラーニングは、実際に一般的なデータスカース設定では、しばしばパフォーマンスが劣る。
大規模なデータセットに基づいてトレーニングされた基礎モデル(FM)は、汎用的な特徴を抽出することによって強力な一般化を示すが、下流の微調整中にラベル付きデータが不足している。
そこで本稿では, FM誘発潜伏空間におけるサンプルの合成に条件付き拡散モデルを利用する, セマンティクスを意識した潜伏データ拡張フレームワークであるGeLDAを提案する。
この空間は低次元であり、入力空間と比較してタスク関連情報に集中するため、GeLDAは効率的で高品質なデータ生成を可能にする。
GeLDA条件は、クラスまたはサブドメイン間のセマンティックな関係をキャプチャし、低リソース領域におけるデータ拡張を容易にする補助的特徴ベクトルを生成する。
GeLDAを2つの大規模認識タスクで検証する。
(a)ゼロショット言語固有の音声感情認識において、GeLDAはWhisper-largeベースラインの未重み付き平均リコールを6.13%改善する。
(b)ロングテール画像分類では、ImageNet-LTで74.7%のテールクラスの精度を達成し、新しい最先端の結果を設定した。
関連論文リスト
- Bridging the Semantic Gap for Categorical Data Clustering via Large Language Models [64.58262227709842]
ARISE(Attention-weighted Representation with Integrated Semantic Embeddings)が紹介される。
正確なクラスタリングのためにカテゴリデータのメトリック空間を補完するセマンティックアウェア表現を構築する。
8つのベンチマークデータセットの実験では、7つの代表的なデータセットよりも一貫した改善が示されている。
論文 参考訳(メタデータ) (2026-01-03T11:37:46Z) - Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Adaptive Masking Enhances Visual Grounding [12.793586888511978]
ローショット学習シナリオにおける語彙接地を改善するために,ガウス放射変調を用いた画像解釈型マスキングを提案する。
我々はCOCOやODinWを含むベンチマークデータセットに対するアプローチの有効性を評価し、ゼロショットタスクや少数ショットタスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-04T05:48:02Z) - Enhancing Unsupervised Sentence Embeddings via Knowledge-Driven Data Augmentation and Gaussian-Decayed Contrastive Learning [23.098551349745815]
大規模言語モデル(LLM)を用いたパイプラインベースのデータ拡張手法を提案する。
本稿では,非教師なし文の埋め込みを改善するために,ガウス型勾配支援コントラスト文埋め込み(GCSE)モデルを提案する。
実験結果から,本手法は意味的テキスト類似性タスクにおける最先端性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2024-09-19T16:29:58Z) - ADLDA: A Method to Reduce the Harm of Data Distribution Shift in Data Augmentation [11.887799310374174]
本研究では,データ分散シフトの負の影響を軽減することを目的とした新しいデータ拡張手法であるADLDAを紹介する。
実験により、ADLDAは複数のデータセットにわたるモデル性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-05-11T03:20:35Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance
Text Classification [34.15923302216751]
本稿では,効率的なテキスト分類を支援するための簡易でプラグイン型のデータ拡張フレームワーク EPiDA を提案する。
EPiDAは、データ生成を制御するために、相対エントロピー(REM)と条件最小エントロピー(CEM)の2つのメカニズムを採用している。
EPiDAは効率的な分類訓練のための効率的で継続的なデータ生成をサポートする。
論文 参考訳(メタデータ) (2022-04-24T06:53:48Z) - Addressing materials' microstructure diversity using transfer learning [0.0]
本研究では, 複合相鋼板の溶湯状ベイナイトセグメンテーションタスクについて検討した。
我々は、最先端のUDAアプローチが、ターゲットドメイン上のソースドメイン訓練モデルのナイーブな適用を超越していることを示す。
論文 参考訳(メタデータ) (2021-07-29T09:13:11Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。