論文の概要: BOLT-GAN: Bayes-Optimal Loss for Stable GAN Training
- arxiv url: http://arxiv.org/abs/2510.25609v1
- Date: Wed, 29 Oct 2025 15:16:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.782959
- Title: BOLT-GAN: Bayes-Optimal Loss for Stable GAN Training
- Title(参考訳): BOLT-GAN:安定したGANトレーニングのためのベイズ最適損失
- Authors: Mohammadreza Tavasoli Naeini, Ali Bereyhi, Morteza Noshad, Ben Liang, Alfred O. Hero III,
- Abstract要約: BOLT-GAN(Bayes Optimal Learning Threshold)に触発されたWGANフレームワークの簡易かつ効果的な修正であるBOLT-GANを導入する。
リプシッツ連続判別器を用いて、BOLT-GANは、アースモーバー(ワッサーシュタイン)距離とは異なる距離を暗黙的に最小化し、より良い訓練安定性を実現することを示す。
- 参考スコア(独自算出の注目度): 26.201144972298255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce BOLT-GAN, a simple yet effective modification of the WGAN framework inspired by the Bayes Optimal Learning Threshold (BOLT). We show that with a Lipschitz continuous discriminator, BOLT-GAN implicitly minimizes a different metric distance than the Earth Mover (Wasserstein) distance and achieves better training stability. Empirical evaluations on four standard image generation benchmarks (CIFAR-10, CelebA-64, LSUN Bedroom-64, and LSUN Church-64) show that BOLT-GAN consistently outperforms WGAN, achieving 10-60% lower Frechet Inception Distance (FID). Our results suggest that BOLT is a broadly applicable principle for enhancing GAN training.
- Abstract(参考訳): 本稿では,Bayes Optimal Learning Threshold (BOLT) に触発されたWGANフレームワークの簡易かつ効果的な修正であるBOLT-GANを紹介する。
リプシッツ連続判別器を用いて、BOLT-GANは、アースモーバー(ワッサーシュタイン)距離とは異なる距離を暗黙的に最小化し、より良い訓練安定性を実現することを示す。
4つの標準画像生成ベンチマーク(CIFAR-10、CelebA-64、LSUN Bedroom-64、LSUN Church-64)の実証的な評価は、BOLT-GANが一貫してWGANを上回り、Frechet Inception Distance (FID) を10-60%下回ったことを示している。
以上の結果から,BOLTはGANトレーニングの強化の原則として広く適用可能であることが示唆された。
関連論文リスト
- GRPO-CARE: Consistency-Aware Reinforcement Learning for Multimodal Reasoning [53.894789613838654]
我々は、複雑な実世界のビデオにバランスの取れた知覚と推論を必要とするベンチマークであるSEED-Bench-R1を紹介する。
SEED-Bench-R1を用いて、標準GRPOは解の精度を向上する一方で、推論ステップと解の論理的コヒーレンスを57.9%の一貫性で減少させる。
応答の正しさと推論コヒーレンスの両方を明示的な監督なしに最適化する整合性を考慮したRLフレームワークGRPO-CAREを提案する。
論文 参考訳(メタデータ) (2025-06-19T08:49:13Z) - Efficient Online RFT with Plug-and-Play LLM Judges: Unlocking State-of-the-Art Performance [0.0]
リワードモデルトレーニングは、現代の強化学習ヒューマンフィードバック(RLHF)パイプラインのコストボトルネックである。
提案手法では, 冷凍型7B LLMを1行とランク16のLORAアダプタで拡張する。
プラグ・アンド・プレイの審査員96.2%はRewardBenchの精度を達成し、27Bから70Bパラメータの特殊報酬ネットワークを上回っている。
論文 参考訳(メタデータ) (2025-06-06T05:18:54Z) - Guided by Gut: Efficient Test-Time Scaling with Reinforced Intrinsic Confidence [38.30075427255948]
大規模言語モデル(LLM)推論を強化するためのTTS(Test-Time Scaling)手法は、しばしばかなりの計算コストを発生させる。
本稿では,外部検証モデルに代えてPRMレベルの性能を実現する,効率的な自己誘導型TTSフレームワークである Guided by Gut (GG) を紹介する。
論文 参考訳(メタデータ) (2025-05-23T18:19:09Z) - ACT-Diffusion: Efficient Adversarial Consistency Training for One-step Diffusion Models [59.90959789767886]
整合性トレーニング損失の最適化は,目標分布と生成分布とのワッサーシュタイン距離を最小化することを示す。
CIFAR10 と ImageNet 64$times$64 と LSUN Cat 256$times$256 データセットの FID スコアを改善する。
論文 参考訳(メタデータ) (2023-11-23T16:49:06Z) - SHOT: Suppressing the Hessian along the Optimization Trajectory for
Gradient-Based Meta-Learning [28.26143547479141]
SHOT(Suppressing the Hessian along the Optimization Trajectory)と呼ばれるアルゴリズムを導入する。
SHOTはベースラインモデルの計算複雑性をあまり増やさない。
本仮説を実証的に検証し,SHOTが対応するベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2023-10-04T11:43:08Z) - Stabilizing GANs' Training with Brownian Motion Controller [24.149460563406286]
GAN(Generative Adversarial Network)のトレーニングプロセスは不安定であり、グローバルに収束しない。
我々はBrownian Motion Controller (BMC) と呼ばれる広帯域高次ノイズベースコントローラを提案する。
理論上は、DiracGANs-BMCのトレーニング過程が、大域的に指数関数的に安定であり、収束率に依存することを証明している。
実験の結果,我々のGANs-BMCは,より高速な収束率,発振域の小さい,FIDスコアの点で優れた性能で,StyleGANv2-adaフレームワーク下でのGANsのトレーニングを効果的に安定化することがわかった。
論文 参考訳(メタデータ) (2023-06-18T03:36:26Z) - Improving the Speed and Quality of GAN by Adversarial Training [87.70013107142142]
我々は,GAN訓練の高速化と品質向上を目的としたFastGANを開発した。
当社のトレーニングアルゴリズムは,2-4GPUを必要とすることによって,ImageNetのトレーニングを一般向けに提供しています。
論文 参考訳(メタデータ) (2020-08-07T20:21:31Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。