論文の概要: About the regularity of the discriminator in conditional WGANs
- arxiv url: http://arxiv.org/abs/2103.13906v1
- Date: Thu, 25 Mar 2021 15:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 16:53:51.017133
- Title: About the regularity of the discriminator in conditional WGANs
- Title(参考訳): 条件付きWGANにおける判別器の正則性について
- Authors: J\"org Martin
- Abstract要約: トレーニング条件付きwganは通常、条件に対する基礎的損失の平均化によって行われる。
しかし、正規性に対するより弱い要求に対して、使用済み損失関数の数学的に完全な正当化は存在しない。
この短い数学的注記はこのギャップを埋めることを目的としており、部分的にリプシッツ1である判別器に対して数学的理性を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training of conditional WGANs is usually done by averaging the underlying
loss over the condition. Depending on the way this is motivated different
constraints on the Lipschitz continuity of the discriminator arise. For the
weaker requirement on the regularity there is however so far no mathematically
complete justification for the used loss function. This short mathematical note
intends to fill this gap and provides the mathematical rationale for
discriminators that are only partially Lipschitz-1 for cases where this
approach is more appropriate or successful.
- Abstract(参考訳): 条件付きWGANの訓練は通常、条件上の損失を平均化することによって行われる。
この方法によって、判別器のリプシッツ連続性に対する異なる制約が生じる。
しかし、正規性に対するより弱い要求に対して、使用済み損失関数の数学的に完全な正当化は存在しない。
この短い数学的ノートは、このギャップを埋めようとしており、このアプローチが適切または成功した場合に対して部分的にリプシッツ-1のみである判別者に対して数学的根拠を提供する。
関連論文リスト
- Enhanced $H$-Consistency Bounds [30.389055604165222]
条件付き後悔に関するより一般的な不等式に基づく拡張された$H$一貫性境界を確立するための枠組みを提案する。
我々の定理は、既存の結果を特別な場合とみなすが、様々なシナリオにおいてより好ましい境界の導出を可能にする。
これには、標準のマルチクラス分類、Tsybakovノイズ条件下でのバイナリクラスとマルチクラス分類、二部分類が含まれる。
論文 参考訳(メタデータ) (2024-07-18T17:22:40Z) - On the Importance of Gradient Norm in PAC-Bayesian Bounds [92.82627080794491]
対数ソボレフ不等式の縮約性を利用する新しい一般化法を提案する。
我々は、この新たな損失段階的ノルム項が異なるニューラルネットワークに与える影響を実証的に分析する。
論文 参考訳(メタデータ) (2022-10-12T12:49:20Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Distribution of Classification Margins: Are All Data Equal? [61.16681488656473]
我々は理論的に動機付け、トレーニングセット上のマージン分布の曲線の下の領域が実際は一般化のよい尺度であることを実証的に示す。
結果として生じる"高いキャパシティ"機能のサブセットは、異なるトレーニング実行間で一貫性がない。
論文 参考訳(メタデータ) (2021-07-21T16:41:57Z) - Linear Classifiers Under Infinite Imbalance [1.370633147306388]
無限不均衡極限における二項分類のための線形判別関数の挙動について検討する。
広いクラスの重み関数に対して、インターセプトは分岐するが、係数ベクトルの残りの部分は無限の不均衡の下では有限なほぼ確実な極限を持つことを示す。
論文 参考訳(メタデータ) (2021-06-10T15:01:54Z) - Lower-bounded proper losses for weakly supervised classification [73.974163801142]
本稿では,弱いラベルが与えられた分類の弱い教師付き学習の問題について議論する。
サベージ表現を双対化する教師付き学習における適切な損失を表す表現定理を導出する。
提案手法の有効性を,不適切な損失や非有界損失と比較して実験的に実証した。
論文 参考訳(メタデータ) (2021-03-04T08:47:07Z) - Discount Factor as a Regularizer in Reinforcement Learning [23.56942940879309]
低い割引係数でRLアルゴリズムを適用することは、レギュレータとして機能し、限られたデータ構造の性能を向上させることが知られている。
削減割引係数を用いることと、アルゴリズムの損失に明示的な正規化項を追加することの間には、明らかな等価性を示す。
等価性によって動機付けられたこの手法を、標準の$L$正規化と比較して実証的に研究する。
論文 参考訳(メタデータ) (2020-07-04T08:10:09Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - On the generalization of bayesian deep nets for multi-class
classification [27.39403411896995]
我々は,Log-Sobolevの不等式の縮約性を利用して,ベイズ深度ネットの新たな一般化を提案する。
これらの不等式を使用すると、一般化境界に損失次数ノルム項が加わり、これは直感的にはモデルの複雑性の代用である。
論文 参考訳(メタデータ) (2020-02-23T09:05:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。