論文の概要: Reweighted Flow Matching via Unbalanced OT for Label-free Long-tailed Generation
- arxiv url: http://arxiv.org/abs/2509.25713v1
- Date: Tue, 30 Sep 2025 03:19:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.404892
- Title: Reweighted Flow Matching via Unbalanced OT for Label-free Long-tailed Generation
- Title(参考訳): ラベルフリーロングテールジェネレーションのための不均衡OTによるリウェイトフローマッチング
- Authors: Hyunsoo Song, Minjung Gim, Jaewoong Choi,
- Abstract要約: 長距離分布に対する不均衡輸送再加重フローマッチング(UOT-RFM)を提案する。
本手法は, 逆重み付けの原則により, 多数偏りを緩和する。
我々のモデルは、長い尾のベンチマークで既存のフローマッチングベースラインを上回ります。
- 参考スコア(独自算出の注目度): 9.488297561764211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow matching has recently emerged as a powerful framework for continuous-time generative modeling. However, when applied to long-tailed distributions, standard flow matching suffers from majority bias, producing minority modes with low fidelity and failing to match the true class proportions. In this work, we propose Unbalanced Optimal Transport Reweighted Flow Matching (UOT-RFM), a novel framework for generative modeling under class-imbalanced (long-tailed) distributions that operates without any class label information. Our method constructs the conditional vector field using mini-batch Unbalanced Optimal Transport (UOT) and mitigates majority bias through a principled inverse reweighting strategy. The reweighting relies on a label-free majority score, defined as the density ratio between the target distribution and the UOT marginal. This score quantifies the degree of majority based on the geometric structure of the data, without requiring class labels. By incorporating this score into the training objective, UOT-RFM theoretically recovers the target distribution with first-order correction ($k=1$) and empirically improves tail-class generation through higher-order corrections ($k > 1$). Our model outperforms existing flow matching baselines on long-tailed benchmarks, while maintaining competitive performance on balanced datasets.
- Abstract(参考訳): フローマッチングは、最近、連続時間生成モデリングの強力なフレームワークとして登場した。
しかし、長い尾の分布に適用した場合、標準フローマッチングは多数派バイアスに悩まされ、低い忠実度を持つマイノリティモードが生成され、真のクラス比と一致しない。
本研究では,クラス不均衡(長い尾を持つ)分布下で生成する新しいフレームワークであるUn Balanced Optimal Transport Reweighted Flow Matching (UOT-RFM)を提案する。
提案手法は, ミニバッチ不均衡最適輸送(UOT)を用いて条件ベクトル場を構築し, 原理的逆重み付け手法により多数偏差を緩和する。
再重み付けは、ターゲット分布とUOT限界の密度比として定義されるラベルのない多数決スコアに依存する。
このスコアは、クラスラベルを必要とせずに、データの幾何学的構造に基づいて、過半数の度合いを定量化する。
このスコアをトレーニング目的に組み込むことにより、UTT-RFMは理論的に1次補正(k=1$)で目標分布を回復し、高次補正(k=1$)によりテールクラス生成を実証的に改善する。
我々のモデルは、バランスの取れたデータセット上での競合性能を維持しながら、長い尾のベンチマークで既存のフローマッチングベースラインを上回ります。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - FedGA: Federated Learning with Gradient Alignment for Error Asymmetry Mitigation [5.3663750040721085]
フェデレートラーニング(FL)は、クライアント内およびクライアント間クラス不均衡を引き起こす。
我々は、FedGAと呼ばれる勾配アライメント(GA)インフォームドFL法を提案する。
論文 参考訳(メタデータ) (2024-12-21T11:15:20Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - DR-Tune: Improving Fine-tuning of Pretrained Visual Models by
Distribution Regularization with Semantic Calibration [38.4461170690033]
セマンティックキャリブレーションを用いた分布正規化(DR-Tune)という,新しい微調整フレームワークを提案する。
DR-Tuneは、下流タスクヘッドを強制して、事前訓練された特徴分布の分類誤差を低減することで、分散正則化を採用する。
セマンティックドリフトによる干渉を軽減するため,セマンティックキャリブレーション(SC)モジュールを開発した。
論文 参考訳(メタデータ) (2023-08-23T10:59:20Z) - Fair GANs through model rebalancing for extremely imbalanced class
distributions [5.463417677777276]
本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
論文 参考訳(メタデータ) (2023-08-16T19:20:06Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。