論文の概要: Fusing Conditional Submodular GAN and Programmatic Weak Supervision
- arxiv url: http://arxiv.org/abs/2312.10366v1
- Date: Sat, 16 Dec 2023 07:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:06:15.158297
- Title: Fusing Conditional Submodular GAN and Programmatic Weak Supervision
- Title(参考訳): Fusing Conditional Submodular GAN and Programmatic Weak Supervision
- Authors: Kumar Shubham, Pranav Sastry, Prathosh AP
- Abstract要約: PWS(Programmatic Weak Supervision)と生成モデルは、データ収集や手動のアノテーションプロセスに頼ることなく、既存のデータセットの有用性を最大化する重要なツールとして機能する。
PWSは、データの基礎となるクラスラベルを推定するために様々な弱い監視技術を使用し、生成モデルは、主に与えられたデータセットの基盤分布からのサンプリングに集中する。
最近、WSGANは2つのモデルを融合させるメカニズムを提案した。
- 参考スコア(独自算出の注目度): 5.300742881753571
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Programmatic Weak Supervision (PWS) and generative models serve as crucial
tools that enable researchers to maximize the utility of existing datasets
without resorting to laborious data gathering and manual annotation processes.
PWS uses various weak supervision techniques to estimate the underlying class
labels of data, while generative models primarily concentrate on sampling from
the underlying distribution of the given dataset. Although these methods have
the potential to complement each other, they have mostly been studied
independently. Recently, WSGAN proposed a mechanism to fuse these two models.
Their approach utilizes the discrete latent factors of InfoGAN to train the
label model and leverages the class-dependent information of the label model to
generate images of specific classes. However, the disentangled latent factors
learned by InfoGAN might not necessarily be class-specific and could
potentially affect the label model's accuracy. Moreover, prediction made by the
label model is often noisy in nature and can have a detrimental impact on the
quality of images generated by GAN. In our work, we address these challenges by
(i) implementing a noise-aware classifier using the pseudo labels generated by
the label model (ii) utilizing the noise-aware classifier's prediction to train
the label model and generate class-conditional images. Additionally, we also
investigate the effect of training the classifier with a subset of the dataset
within a defined uncertainty budget on pseudo labels. We accomplish this by
formalizing the subset selection problem as a submodular maximization objective
with a knapsack constraint on the entropy of pseudo labels. We conduct
experiments on multiple datasets and demonstrate the efficacy of our methods on
several tasks vis-a-vis the current state-of-the-art methods.
- Abstract(参考訳): PWS(Programmatic Weak Supervision)と生成モデルは、研究者が退屈なデータ収集や手作業によるアノテーションプロセスに頼ることなく、既存のデータセットの有用性を最大化するための重要なツールである。
PWSは、データの基礎となるクラスラベルを推定するために様々な弱い監視技術を使用し、生成モデルは、主に与えられたデータセットの基盤分布からのサンプリングに集中する。
これらの手法は互いに補完する可能性があるが、主に独立して研究されている。
最近、wsganはこれら2つのモデルを融合するメカニズムを提案した。
それらのアプローチはInfoGANの離散潜在因子を利用してラベルモデルをトレーニングし、ラベルモデルのクラス依存情報を利用して特定のクラスの画像を生成する。
しかし、InfoGANが学習したゆがんだ潜伏因子は必ずしもクラス固有のものではなく、ラベルモデルの精度に影響を与える可能性がある。
さらに、ラベルモデルによる予測は自然界においてうるさく、GANが生成した画像の品質に有害な影響を与えることがある。
私たちの仕事では、これらの課題に
一 ラベルモデルにより生成された擬似ラベルを用いた雑音認識分類器の実装
(ii)ノイズ認識分類器の予測を利用してラベルモデルを訓練し、クラス条件画像を生成する。
さらに,決定された不確実性予算内でデータセットのサブセットを用いた分類器の訓練が擬似ラベルに与える影響についても検討する。
我々は、部分集合選択問題を擬似ラベルのエントロピーに対するナップサック制約付き部分モジュラー最大化目的として定式化することでこれを達成する。
我々は,複数のデータセット上で実験を行い,現在最先端の手法を問うタスクにおいて,提案手法の有効性を実証する。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Label-Noise Robust Diffusion Models [18.82847557713331]
条件拡散モデルは、様々な生成タスクにおいて顕著な性能を示した。
訓練には、条件付き入力でしばしばノイズを含む大規模なデータセット、すなわちノイズラベルが必要である。
本稿では,雑音ラベル付き条件付き拡散モデルの学習のための遷移対応重み付きDenoising Score Matchingを提案する。
論文 参考訳(メタデータ) (2024-02-27T14:00:34Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Rethinking Precision of Pseudo Label: Test-Time Adaptation via
Complementary Learning [10.396596055773012]
本稿では,テスト時間適応性を高めるための新しい補完学習手法を提案する。
テスト時適応タスクでは、ソースドメインからの情報は通常利用できない。
我々は,相補ラベルのリスク関数がバニラ損失式と一致することを強調した。
論文 参考訳(メタデータ) (2023-01-15T03:36:33Z) - Learning Confident Classifiers in the Presence of Label Noise [5.829762367794509]
本稿では,ノイズ観測のための確率論的モデルを提案し,信頼性の高い分類とセグメンテーションモデルの構築を可能にする。
実験により,本アルゴリズムは,検討された分類問題と分割問題に対して,最先端の解よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-01-02T04:27:25Z) - Leveraging Instance Features for Label Aggregation in Programmatic Weak
Supervision [75.1860418333995]
Programmatic Weak Supervision (PWS) は、トレーニングラベルを効率的に合成するための広く普及したパラダイムとして登場した。
PWSのコアコンポーネントはラベルモデルであり、複数のノイズ管理ソースの出力をラベル関数として集約することで、真のラベルを推論する。
既存の統計ラベルモデルは一般的にLFの出力のみに依存し、基礎となる生成過程をモデル化する際のインスタンスの特徴を無視している。
論文 参考訳(メタデータ) (2022-10-06T07:28:53Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。