論文の概要: GANORCON: Are Generative Models Useful for Few-shot Segmentation?
- arxiv url: http://arxiv.org/abs/2112.00854v1
- Date: Wed, 1 Dec 2021 22:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 08:21:34.860425
- Title: GANORCON: Are Generative Models Useful for Few-shot Segmentation?
- Title(参考訳): GANORCON: 生成モデルはショットセグメンテーションに有効か?
- Authors: Oindrila Saha, Zezhou Cheng and Subhransu Maji
- Abstract要約: GAN表現は、特にトレーニングデータに制限がある場合、部分分割のような差別的なタスクに再利用することができる。
コントラスト学習に基づく代替手法を提案し、その性能を標準の少数ショット部分セグメンテーションベンチマークで比較する。
我々の実験は、GANベースのアプローチが大きなパフォーマンス上の優位性をもたらすだけでなく、そのマルチステップトレーニングは複雑で、ほぼマグニチュードが遅く、さらなるバイアスをもたらす可能性があることを明らかにした。
- 参考スコア(独自算出の注目度): 35.79561690868794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in generative modeling based on GANs has motivated the community to
find their use beyond image generation and editing tasks. In particular,
several recent works have shown that GAN representations can be re-purposed for
discriminative tasks such as part segmentation, especially when training data
is limited. But how do these improvements stack-up against recent advances in
self-supervised learning? Motivated by this we present an alternative approach
based on contrastive learning and compare their performance on standard
few-shot part segmentation benchmarks. Our experiments reveal that not only do
the GAN-based approach offer no significant performance advantage, their
multi-step training is complex, nearly an order-of-magnitude slower, and can
introduce additional bias. These experiments suggest that the inductive biases
of generative models, such as their ability to disentangle shape and texture,
are well captured by standard feed-forward networks trained using contrastive
learning. These experiments suggest that the inductive biases present in
current generative models, such as their ability to disentangle shape and
texture, are well captured by standard feed-forward networks trained using
contrastive learning.
- Abstract(参考訳): GANに基づくジェネレーティブモデリングの進歩は、画像生成や編集タスクを超えて、コミュニティの活用を動機付けている。
特に近年の研究では、特に訓練データに制限がある場合、部分分割などの識別タスクにGAN表現を再利用できることが示されている。
しかし、これらの改善は、近年の自己教師型学習の進歩に対して、どのように積み重ねられるのだろうか?
そこで本研究では, コントラスト学習に基づく代替手法を提案し, 標準部分セグメンテーションベンチマークによる性能比較を行った。
私たちの実験では、ganベースのアプローチはパフォーマンス面で大きな利点をもたらさないだけでなく、多段階トレーニングが複雑で、桁違いに遅くなり、さらなるバイアスをもたらす可能性があることが分かりました。
これらの実験は、形状やテクスチャを歪める能力などの生成モデルの帰納バイアスが、コントラスト学習を用いて訓練された標準フィードフォワードネットワークによってよく捉えられていることを示唆している。
これらの実験は、形やテクスチャを歪める能力など、現在の生成モデルに存在する誘導バイアスが、コントラスト学習を用いて訓練された標準フィードフォワードネットワークによってよく捉えられていることを示唆している。
関連論文リスト
- Rejection Sampling IMLE: Designing Priors for Better Few-Shot Image
Synthesis [7.234618871984921]
新たな研究分野は、限られたトレーニングデータで深層生成モデルを学ぶことを目的としている。
トレーニングに使用する事前分布を変更する新しいアプローチであるRS-IMLEを提案する。
これにより、既存のGANやIMLEベースの手法に比べて画質が大幅に向上する。
論文 参考訳(メタデータ) (2024-09-26T00:19:42Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Robust Fine-Tuning of Vision-Language Models for Domain Generalization [6.7181844004432385]
ファンデーションモデルは、分散シフトの下で、印象的なゼロショット推論能力とロバスト性を持っている。
一般的な視覚言語基盤モデルCLIPの微調整のための新しいレシピを提案する。
私たちの実験では、ゼロショットCLIPは、より複雑なベンチマークでトレーニング済みのビジョンモデルのパフォーマンスと一致しないが、少数ショットCLIPの微調整は、ビジョンのみのパフォーマンスよりも優れていることを示した。
論文 参考訳(メタデータ) (2023-11-03T20:50:40Z) - Enhancing Text Generation with Cooperative Training [23.971227375706327]
ほとんどの一般的な方法は、別々に生成的および差別的なモデルを訓練し、互いに変化に適応できなかった。
本稿では,識別器とジェネレータをクローズドループで協調的に学習するテキスト分野におけるテキスト自己一貫性学習フレームワークを提案する。
我々のフレームワークは、モード崩壊や非収束といったトレーニングの不安定さを軽減することができる。
論文 参考訳(メタデータ) (2023-03-16T04:21:19Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。