論文の概要: The Bid Picture: Auction-Inspired Multi-player Generative Adversarial Networks Training
- arxiv url: http://arxiv.org/abs/2403.13866v1
- Date: Wed, 20 Mar 2024 11:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 18:18:59.178040
- Title: The Bid Picture: Auction-Inspired Multi-player Generative Adversarial Networks Training
- Title(参考訳): ビッド・ピクチャーズ:オークションにインスパイアされたマルチプレイヤー・ジェネレーティブ・アドバイサル・ネットワークのトレーニング
- Authors: Joo Yong Shim, Jean Seong Bjorn Choe, Jong-Kook Kim,
- Abstract要約: 生成的敵ネットワークのためのオークションライクなトレーニングが提案されている。
各モデルの値は、オークションのようなプロセスで他のプレイヤーが提出した入札によって決定される。
- 参考スコア(独自算出の注目度): 0.24578723416255752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article proposes auction-inspired multi-player generative adversarial networks training, which mitigates the mode collapse problem of GANs. Mode collapse occurs when an over-fitted generator generates a limited range of samples, often concentrating on a small subset of the data distribution. Despite the restricted diversity of generated samples, the discriminator can still be deceived into distinguishing these samples as real samples from the actual distribution. In the absence of external standards, a model cannot recognize its failure during the training phase. We extend the two-player game of generative adversarial networks to the multi-player game. During the training, the values of each model are determined by the bids submitted by other players in an auction-like process.
- Abstract(参考訳): 本稿では,GANのモード崩壊問題を緩和する,オークション型マルチプレイヤー生成対向ネットワークトレーニングを提案する。
モード崩壊は、過度に適合したジェネレータが限られた範囲のサンプルを生成し、しばしばデータ分散の小さなサブセットに集中したときに起こる。
生成したサンプルの多様性が制限されているにもかかわらず、判別器は実際の分布からこれらのサンプルを実際のサンプルと区別することができる。
外部標準がなければ、モデルはトレーニングフェーズ中にその失敗を認識することができない。
生成的敵ネットワークの2人プレイヤゲームをマルチプレイヤーゲームに拡張する。
トレーニング中、各モデルの値は、オークションのようなプロセスで他のプレイヤーが提出した入札によって決定される。
関連論文リスト
- Robust Multimodal Learning via Representation Decoupling [6.7678581401558295]
マルチモーダル学習はその実用性から注目を集めている。
既存の手法は、異なるモダリティの組み合わせに対して共通の部分空間表現を学習することで、この問題に対処する傾向がある。
本稿では,頑健なマルチモーダル学習を支援するために,DMRNet(Decoupled Multimodal Representation Network)を提案する。
論文 参考訳(メタデータ) (2024-07-05T12:09:33Z) - Generating Personas for Games with Multimodal Adversarial Imitation
Learning [47.70823327747952]
強化学習は、人間のレベルでゲームをすることができるエージェントを生産する上で、広く成功している。
強化学習を超えて進むことは、幅広い人間のプレイスタイルをモデル化するために必要である。
本稿では,プレイテストのための複数のペルソナポリシーを生成するための,新しい模倣学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T06:58:19Z) - Multi-modal Latent Diffusion [8.316365279740188]
多モード変分オートエンコーダ(Multi-modal Variational Autoencoder)は、様々なモダリティの合同表現を学習することを目的とした、一般的なモデルのファミリーである。
既存のアプローチはコヒーレンス品質のトレードオフに悩まされており、優れた世代品質のモデルはモダリティ間で生成コヒーレンスを欠いている。
独立に訓練された一様・一様・決定論的オートエンコーダの集合を用いる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T14:16:44Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - MG-GAN: A Multi-Generator Model Preventing Out-of-Distribution Samples
in Pedestrian Trajectory Prediction [0.6445605125467573]
歩行者軌道予測のためのマルチジェネレータモデルを提案する。
各ジェネレータは、シーン内の主要なモードの1つにルーティングする軌跡上の分布を学習する。
第2のネットワークは、これらのジェネレータ上のカテゴリ分布を動的およびシーン入力に基づいて学習する。
このアーキテクチャにより、特殊なジェネレータから効果的にサンプルを採取し、単一ジェネレータ法と比較して配布外サンプルを著しく削減できる。
論文 参考訳(メタデータ) (2021-08-20T17:10:39Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Unsupervised multi-modal Styled Content Generation [61.040392094140245]
UMMGANは、教師なし方式でマルチモーダル分布をモデル化するために設計された新しいアーキテクチャである。
UMMGANはモードとスタイルを効果的に切り離し、生成したコンテンツに対して独立した制御を行うことができることを示す。
論文 参考訳(メタデータ) (2020-01-10T19:36:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。