論文の概要: SONA: Learning Conditional, Unconditional, and Mismatching-Aware Discriminator
- arxiv url: http://arxiv.org/abs/2510.04576v1
- Date: Mon, 06 Oct 2025 08:26:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.748782
- Title: SONA: Learning Conditional, Unconditional, and Mismatching-Aware Discriminator
- Title(参考訳): SONA: 条件, 条件, ミスマッチを意識した識別器の学習
- Authors: Yuhta Takida, Satoshi Hayakawa, Takashi Shibuya, Masaaki Imaizumi, Naoki Murata, Bac Nguyen, Toshimitsu Uesaka, Chieh-Hsin Lai, Yuki Mitsufuji,
- Abstract要約: 帰納的バイアスを伴う最終層において,自然性(美容性)とアライメントを別々に投影するSONA(Sum of Naturalness and Alignment)を導入する。
クラス条件生成タスクの実験により、SONAは最先端の手法に比べて優れたサンプル品質と条件アライメントを達成することが示された。
- 参考スコア(独自算出の注目度): 54.562217603802075
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep generative models have made significant advances in generating complex content, yet conditional generation remains a fundamental challenge. Existing conditional generative adversarial networks often struggle to balance the dual objectives of assessing authenticity and conditional alignment of input samples within their conditional discriminators. To address this, we propose a novel discriminator design that integrates three key capabilities: unconditional discrimination, matching-aware supervision to enhance alignment sensitivity, and adaptive weighting to dynamically balance all objectives. Specifically, we introduce Sum of Naturalness and Alignment (SONA), which employs separate projections for naturalness (authenticity) and alignment in the final layer with an inductive bias, supported by dedicated objective functions and an adaptive weighting mechanism. Extensive experiments on class-conditional generation tasks show that \ours achieves superior sample quality and conditional alignment compared to state-of-the-art methods. Furthermore, we demonstrate its effectiveness in text-to-image generation, confirming the versatility and robustness of our approach.
- Abstract(参考訳): 深層生成モデルは複雑なコンテンツを生成する上で大きな進歩を遂げてきたが、条件付き生成は依然として根本的な課題である。
既存の条件生成敵ネットワークは、条件判別器内の入力サンプルの正当性と条件整合性を評価するという2つの目的のバランスをとるのに苦労することが多い。
そこで本研究では,非条件識別,アライメント感度向上のためのマッチング・アウェア・インスペクション,および全ての目的を動的にバランスさせる適応重み付けという,3つの重要な機能を統合した新しい識別器設計を提案する。
具体的には,主目的関数と適応重み付け機構によって支持される帰納バイアスを伴う最終層における自然性(オーセンティシティ)とアライメントの別々のプロジェクションを利用するSONA(Sum of Naturalness and Alignment)を紹介する。
クラス条件生成タスクに関する大規模な実験により、‘ours’は最先端の手法に比べて優れたサンプル品質と条件アライメントを実現することが示された。
さらに,テキスト・画像生成におけるその効果を実証し,アプローチの汎用性と堅牢性を確認した。
関連論文リスト
- An Uncertainty-Driven Adaptive Self-Alignment Framework for Large Language Models [18.62332474172811]
大規模言語モデル(LLM)は、命令の追従と汎用推論において顕著な進歩を示している。
人間の意図と人間のアノテーションのない安全基準との高品質な整合性は、依然として根本的な課題である。
完全自動でLLMアライメントを改善するために,不確実性駆動型適応型自己アライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-23T13:00:00Z) - Cocoon: Robust Multi-Modal Perception with Uncertainty-Aware Sensor Fusion [26.979291099052194]
オブジェクトレベルの不確実性を認識した融合フレームワークであるCocoonを紹介します。
鍵となる革新は不均一表現に対する不確実な定量化である。
Cocoonは、通常の条件と挑戦条件の両方において、既存の静的および適応的な手法より一貫して優れている。
論文 参考訳(メタデータ) (2024-10-16T14:10:53Z) - Enforcing Conditional Independence for Fair Representation Learning and Causal Image Generation [13.841888171417017]
条件付き独立性(CI)制約は、機械学習における公平性の定義と評価に不可欠である。
エンコーダアーキテクチャに適用可能な,新たなトレーニングパラダイムを導入する。
論文 参考訳(メタデータ) (2024-04-21T23:34:45Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Steering Language Generation: Harnessing Contrastive Expert Guidance and
Negative Prompting for Coherent and Diverse Synthetic Data Generation [0.0]
大規模言語モデル(LLM)は、高品質で実用性の高い合成データを生成する大きな可能性を秘めている。
本稿では,細調整された言語モデルと基本言語モデルのロジット分布の違いを強調する,対照的な専門家指導を紹介する。
STEER: Embedding Repositioningによるセマンティックテキストの強化。
論文 参考訳(メタデータ) (2023-08-15T08:49:14Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Push Stricter to Decide Better: A Class-Conditional Feature Adaptive
Framework for Improving Adversarial Robustness [18.98147977363969]
本稿では,自然データと逆例を対象とする特徴適応学習(Feature Adaptive Adversarial Training, FAAT)を提案する。
FAATはより差別的な特徴を生み出し、最先端の手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2021-12-01T07:37:56Z) - Learning perturbation sets for robust machine learning [97.6757418136662]
我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
論文 参考訳(メタデータ) (2020-07-16T16:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。