論文の概要: AugGen: Synthetic Augmentation Can Improve Discriminative Models
- arxiv url: http://arxiv.org/abs/2503.11544v1
- Date: Fri, 14 Mar 2025 16:10:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:07:01.004400
- Title: AugGen: Synthetic Augmentation Can Improve Discriminative Models
- Title(参考訳): AugGen: 差別モデルを改善するための合成拡張
- Authors: Parsa Rahimi, Damien Teney, Sebastien Marcel,
- Abstract要約: 自己完結型合成拡張技術を紹介する。
ターゲットデータセットにのみ訓練された条件生成モデルから戦略的にサンプリングする。
IJB-CベンチマークとIJB-Bベンチマークで1~12%のパフォーマンス向上を実現している。
- 参考スコア(独自算出の注目度): 14.680260279598045
- License:
- Abstract: The increasing dependence on large-scale datasets in machine learning introduces significant privacy and ethical challenges. Synthetic data generation offers a promising solution; however, most current methods rely on external datasets or pre-trained models, which add complexity and escalate resource demands. In this work, we introduce a novel self-contained synthetic augmentation technique that strategically samples from a conditional generative model trained exclusively on the target dataset. This approach eliminates the need for auxiliary data sources. Applied to face recognition datasets, our method achieves 1--12\% performance improvements on the IJB-C and IJB-B benchmarks. It outperforms models trained solely on real data and exceeds the performance of state-of-the-art synthetic data generation baselines. Notably, these enhancements often surpass those achieved through architectural improvements, underscoring the significant impact of synthetic augmentation in data-scarce environments. These findings demonstrate that carefully integrated synthetic data not only addresses privacy and resource constraints but also substantially boosts model performance. Project page https://parsa-ra.github.io/auggen
- Abstract(参考訳): 機械学習における大規模なデータセットへの依存度の増加は、大きなプライバシーと倫理的課題をもたらす。
合成データ生成は、有望なソリューションを提供するが、現在のほとんどのメソッドは、複雑さを増し、リソース要求をエスカレートする外部データセットや事前訓練されたモデルに依存している。
本研究では,ターゲットデータセットにのみ訓練された条件生成モデルから戦略的にサンプルを抽出する,自己完結型合成拡張手法を提案する。
このアプローチは補助的なデータソースを必要としない。
IJB-C と IJB-B のベンチマークで1--12 % の性能向上を実現した。
実際のデータのみに基づいてトレーニングされたモデルよりも優れており、最先端の合成データ生成ベースラインのパフォーマンスを上回る。
特に、これらの拡張はアーキテクチャの改善によって達成されたものを上回ることが多く、データスカース環境での合成拡張による大きな影響を強調している。
これらの結果から,プライバシやリソースの制約に対処するだけでなく,モデルの性能を大幅に向上させることが示唆された。
プロジェクトページ https://parsa-ra.github.io/auggen
関連論文リスト
- Automatic Prompt Optimization Techniques: Exploring the Potential for Synthetic Data Generation [0.0]
医療などの専門分野において、データ取得はプライバシー規制、倫理的配慮、可用性の制限による重大な制約に直面している。
大規模プロンプトベースモデルの出現は、保護されたデータに直接アクセスすることなく、合成データ生成の新しい機会を示す。
PRISMAガイドラインに従って, 自動プロンプト最適化の最近の展開を概観する。
論文 参考訳(メタデータ) (2025-02-05T11:13:03Z) - BARE: Combining Base and Instruction-Tuned Language Models for Better Synthetic Data Generation [71.46236155101032]
本研究では,ベースモデルの多様性とインストラクション学習モデルの品質を組み合わせた合成データ生成手法であるBase-Refineを提案する。
BARE生成データによる微調整は, GSM8Kの命令のみのデータよりも101%, RAFTのSOTA法より18.4%向上することを示す。
論文 参考訳(メタデータ) (2025-02-03T00:12:40Z) - iTool: Boosting Tool Use of Large Language Models via Iterative Reinforced Fine-Tuning [39.65877861652369]
大規模な言語モデルを外部ツールで拡張することは、その能力を強化するための有望なアプローチである。
その結果, 合成データの増加に伴い, トレーニングは著しく低下することがわかった。
本稿では,これらの課題を軽減するために,反復的に強化された微調整戦略を提案する。
論文 参考訳(メタデータ) (2025-01-15T04:52:34Z) - DreamMask: Boosting Open-vocabulary Panoptic Segmentation with Synthetic Data [61.62554324594797]
オープンな語彙設定でトレーニングデータを生成する方法と、実データと合成データの両方でモデルをトレーニングする方法を探索するDreamMaskを提案する。
一般的に、DreamMaskは大規模なトレーニングデータの収集を著しく単純化し、既存のメソッドのプラグイン・アンド・プレイ・エンハンスメントとして機能する。
例えば、COCOで訓練しADE20Kで試験すると、ドリームマスクを装備したモデルは以前の最先端の2.1% mIoUよりも優れていた。
論文 参考訳(メタデータ) (2025-01-03T19:00:00Z) - Exploring the Landscape for Generative Sequence Models for Specialized Data Synthesis [0.0]
本稿では, 複雑度の異なる3つの生成モデルを用いて, 悪意ネットワークトラフィックを合成する手法を提案する。
提案手法は,数値データをテキストに変換し,言語モデリングタスクとして再フレーミングする。
提案手法は,高忠実度合成データの生成において,最先端の生成モデルを超えている。
論文 参考訳(メタデータ) (2024-11-04T09:51:10Z) - zGAN: An Outlier-focused Generative Adversarial Network For Realistic Synthetic Data Generation [0.0]
ブラックスワン」は古典的な機械学習モデルの性能に挑戦している。
本稿では、外部特性を持つ合成データを生成する目的で開発されたzGANモデルアーキテクチャの概要について述べる。
リアルな合成データ生成の有望な結果と、モデル性能のアップリフト能力を示す。
論文 参考訳(メタデータ) (2024-10-28T07:55:11Z) - Little Giants: Synthesizing High-Quality Embedding Data at Scale [71.352883755806]
SPEEDは,オープンソースの小型モデルと協調して大規模な埋め込みデータを効率的に生成するフレームワークである。
SPEEDはGPT API呼び出しの1/10未満しか使用せず、両者が合成データのみに基づいてトレーニングされている場合、最先端の埋め込みモデルE5_mistralよりも優れている。
論文 参考訳(メタデータ) (2024-10-24T10:47:30Z) - Best Practices and Lessons Learned on Synthetic Data [83.63271573197026]
AIモデルの成功は、大規模で多様な、高品質なデータセットの可用性に依存している。
合成データは、現実世界のパターンを模倣する人工データを生成することによって、有望なソリューションとして現れてきた。
論文 参考訳(メタデータ) (2024-04-11T06:34:17Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。