論文の概要: Conditional-$t^3$VAE: Equitable Latent Space Allocation for Fair Generation
- arxiv url: http://arxiv.org/abs/2509.02154v1
- Date: Tue, 02 Sep 2025 10:03:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.989344
- Title: Conditional-$t^3$VAE: Equitable Latent Space Allocation for Fair Generation
- Title(参考訳): Conditional-$t^3$VAE: Equitable Latent Space Allocation for Fair Generation
- Authors: Aymene Mohammed Bouayed, Samuel Deslauriers-Gauthier, Adrian Iaccovelli, David Naccache,
- Abstract要約: グローバルプリエントを持つ変分オートエンコーダ(VAE)は、潜在空間におけるトレーニングセットのクラス周波数を反映する。
遅延変数と出力変数に先立ってクラス単位の t 結合を定義する Conditional-$t3$VAE を提案する。
我々のアプローチは、より極端な体制における生成的公正性と多様性を大幅に改善します。
- 参考スコア(独自算出の注目度): 1.1637069058198868
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Variational Autoencoders (VAEs) with global priors mirror the training set's class frequency in latent space, underrepresenting tail classes and reducing generative fairness on imbalanced datasets. While $t^3$VAE improves robustness via heavy-tailed Student's t-distribution priors, it still allocates latent volume proportionally to the class frequency.In this work, we address this issue by explicitly enforcing equitable latent space allocation across classes. To this end, we propose Conditional-$t^3$VAE, which defines a per-class \mbox{Student's t} joint prior over latent and output variables, preventing dominance by majority classes. Our model is optimized using a closed-form objective derived from the $\gamma$-power divergence. Moreover, for class-balanced generation, we derive an equal-weight latent mixture of Student's t-distributions. On SVHN-LT, CIFAR100-LT, and CelebA, Conditional-$t^3$VAE consistently achieves lower FID scores than both $t^3$VAE and Gaussian-based VAE baselines, particularly under severe class imbalance. In per-class F1 evaluations, Conditional-$t^3$VAE also outperforms the conditional Gaussian VAE across all highly imbalanced settings. While Gaussian-based models remain competitive under mild imbalance ratio ($\rho \lesssim 3$), our approach substantially improves generative fairness and diversity in more extreme regimes.
- Abstract(参考訳): グローバル事前を持つ変分オートエンコーダ(VAE)は、トレーニングセットのクラス頻度を潜在空間で反映し、テールクラスを過小評価し、不均衡なデータセットの生成フェアネスを減少させる。
t^3$VAEは、重み付き学生のt分布前処理によってロバスト性を改善するが、クラス周波数に比例して潜在ボリュームを割り当てる。
この目的のために、潜伏変数と出力変数に先立って、クラスごとの \mbox{Student's t} 結合を定義する Conditional-$t^3$VAE を提案する。
我々のモデルは、$\gamma$-power divergenceから導かれる閉形式目的を用いて最適化される。
さらに, クラスバランス生成においては, 学生のt分布の等重量潜伏混合を導出する。
SVHN-LT、CIFAR100-LT、CelebAでは、Conditional-$t^3$VAEは、特に厳しいクラス不均衡の下で、$t^3$VAEおよびガウスベースのVAEベースラインよりも低いFIDスコアを達成する。
クラス毎のF1評価では、Conditional-$t^3$VAEは条件付きガウスVAEよりも高いバランスの取れた設定で優れている。
ガウスに基づくモデルは、穏やかな不均衡比(\rho \lesssim 3$)の下では競争力を維持するが、我々のアプローチはより極端な体制における生成的公正性と多様性を大幅に改善する。
関連論文リスト
- FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [61.79405341803085]
低ランク適応(LoRA)は、フェデレートラーニング(FL)における言語モデルの効率的な微調整に広く用いられている。
低ランク適応(LoRA)は、フェデレートラーニング(FL)における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - Smoothed Normalization for Efficient Distributed Private Optimization [54.197255548244705]
フェデレートされた学習は、参加者のプライバシを備えた機械学習モデルを可能にする。
トレーニングやフィードバックのない問題に対して、差分にプライベートな分散手法は存在しない。
証明可能な収束保証付き分散アルゴリズム$alpha$-$sf NormEC$を導入する。
論文 参考訳(メタデータ) (2025-02-19T07:10:32Z) - MM-RLHF: The Next Step Forward in Multimodal LLM Alignment [59.536850459059856]
MM-RLHF, $mathbf120k$ fine-fine, human-annotated preference comparison pairsを含むデータセットを紹介する。
本稿では,報酬モデルの品質向上とアライメントアルゴリズムの効率向上のために,いくつかの重要なイノベーションを提案する。
我々のアプローチは、$mathbf10$の異なる次元と$mathbf27$のベンチマークで厳格に評価されている。
論文 参考訳(メタデータ) (2025-02-14T18:59:51Z) - Wasserstein Distributionally Robust Multiclass Support Vector Machine [1.8570591025615457]
データの特徴が $mathbfx$ であり,そのラベルが $mathbfy$ であるような設定におけるマルチクラス分類の問題について検討する。
我々は、分散ロバストな最適化を用いて、クラマー・シンガー(CS)損失を特徴とするマルチクラスサポートベクターマシン(SVM)のロバストバージョンを開発する。
我々の数値実験は、トレーニングデータが高度に不均衡な環境で、我々のモデルが最先端のOVAモデルより優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T21:40:04Z) - $t^3$-Variational Autoencoder: Learning Heavy-tailed Data with Student's
t and Power Divergence [7.0479532872043755]
$t3$VAEは、学生のt-distributionsを前者、エンコーダ、デコーダに組み込んだ改良されたVAEフレームワークである。
t3$VAE は CelebA や不均衡な CIFAR-100 データセットにおいて,他のモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-02T13:14:28Z) - Distributed Extra-gradient with Optimal Complexity and Communication
Guarantees [60.571030754252824]
複数のプロセッサ/ワーカー/クライアントがローカルなデュアルベクトルにアクセス可能なマルチGPU設定において、モノトン変分不等式(VI)問題を考察する。
モノトーンVI問題に対するデファクトアルゴリズムであるExtra-gradientは、通信効率が良くないように設計されている。
そこで本稿では,VI の解法に適した非バイアスで適応的な圧縮手法である量子化一般化外部勾配 (Q-GenX) を提案する。
論文 参考訳(メタデータ) (2023-08-17T21:15:04Z) - Training \beta-VAE by Aggregating a Learned Gaussian Posterior with a
Decoupled Decoder [0.553073476964056]
VAEトレーニングの現在の実践は、しばしば、再構成の忠実さと、潜伏空間の連続性$/$$分散の間のトレードオフをもたらす。
本稿では,2つの損失の対角的機構の直観と注意深い解析を行い,VAEを訓練するための簡易で効果的な2段階法を提案する。
本手法は, 3次元頭蓋骨再建と形状完成を目的とした医療データセットを用いて評価し, 提案手法を用いてトレーニングしたVAEの有望な生成能力を示す。
論文 参考訳(メタデータ) (2022-09-29T13:49:57Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Non-Convex SGD Learns Halfspaces with Adversarial Label Noise [50.659479930171585]
分布固有モデルにおいて,同種半空間の学習を代理する問題に対する解を示す。
任意の凸分布において、誤分類誤差は本質的にハーフスペースの誤分類誤差につながることを示す。
論文 参考訳(メタデータ) (2020-06-11T18:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。