論文の概要: Generation from Noisy Examples
- arxiv url: http://arxiv.org/abs/2501.04179v1
- Date: Tue, 07 Jan 2025 23:16:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:56:51.433962
- Title: Generation from Noisy Examples
- Title(参考訳): ノイズのある例から生成する
- Authors: Ananth Raman, Vinod Raman,
- Abstract要約: 生成性は、有限個のノイズのある例の存在によってほとんど影響を受けないことが示される。
有限類と可算類に対して、生成性は有限個のノイズのある例の存在によってほとんど影響を受けないことを示す。
- 参考スコア(独自算出の注目度): 2.3020018305241337
- License:
- Abstract: We continue to study the learning-theoretic foundations of generation by extending the results from Kleinberg and Mullainathan [2024] and Li et al. [2024] to account for noisy example streams. In the noiseless setting of Kleinberg and Mullainathan [2024] and Li et al. [2024], an adversary picks a hypothesis from a binary hypothesis class and provides a generator with a sequence of its positive examples. The goal of the generator is to eventually output new, unseen positive examples. In the noisy setting, an adversary still picks a hypothesis and a sequence of its positive examples. But, before presenting the stream to the generator, the adversary inserts a finite number of negative examples. Unaware of which examples are noisy, the goal of the generator is to still eventually output new, unseen positive examples. In this paper, we provide necessary and sufficient conditions for when a binary hypothesis class can be noisily generatable. We provide such conditions with respect to various constraints on the number of distinct examples that need to be seen before perfect generation of positive examples. Interestingly, for finite and countable classes we show that generatability is largely unaffected by the presence of a finite number of noisy examples.
- Abstract(参考訳): 我々は、Kleinberg と Mullainathan [2024] と Li et al [2024] の成果を拡張して、ノイズの多いサンプルストリームを考慮した学習理論の基礎の研究を続けている。
Kleinberg と Mullainathan [2024] と Li et al [2024] のノイズのない設定では、敵対者は二項仮説クラスから仮説を選び、その正の例の列を生成元に提供する。
ジェネレータの目標は、最終的に新しい、目に見えないポジティブな例を出力することである。
うるさい設定では、敵は依然として仮説と正の例の列を選ぶ。
しかし、生成元にストリームを提示する前に、敵は有限個の負の例を挿入する。
どの例がうるさいか分からないが、ジェネレータの目標は、最終的に新しい、目に見えないポジティブな例を出力することである。
本稿では、二項仮説クラスがノイズ的に生成可能な場合に必要かつ十分な条件を提供する。
正の例を完全生成する前に見る必要がある別個の例の数に関する様々な制約について、そのような条件を提供する。
興味深いことに、有限類と可算類に対して、生成性は有限個のノイズのある例の存在によってほとんど影響を受けないことを示す。
関連論文リスト
- Wide Two-Layer Networks can Learn from Adversarial Perturbations [27.368408524000778]
摂動学習の反直感的成功を理論的に説明する。
対角摂動は、ネットワークがそれらから一般化するのに十分なクラス固有の特徴を含むことを証明している。
論文 参考訳(メタデータ) (2024-10-31T06:55:57Z) - Controllable Game Level Generation: Assessing the Effect of Negative Examples in GAN Models [3.2228025627337864]
GAN(Generative Adversarial Networks)は、ターゲット分布の学習と複製を目的とした教師なしモデルである。
Conditional Generative Adversarial Networks (CGAN) は、ジェネレータと識別器の両方を追加情報に条件付けすることでバニラGANを拡張する。
Rumi-GANは負の例を利用して、前向きな例を学習するジェネレータの能力を高める。
論文 参考訳(メタデータ) (2024-10-30T15:18:26Z) - Generation through the lens of learning theory [18.355039522639565]
統計的学習理論のレンズを通して生成を研究する。
我々は「一様」および「非一様」生成と呼び、どの仮説類が一様かつ一様でない生成可能かを特徴づける。
論文 参考訳(メタデータ) (2024-10-17T16:14:49Z) - GAPX: Generalized Autoregressive Paraphrase-Identification X [24.331570697458954]
このパフォーマンス低下の主な原因は、ネガティブな例によって導入されたバイアスである。
我々は、推論中にどれだけの重量を与えるべきかを効果的に、かつ自動的に決定できるパープレキシティーに基づくアウト・オブ・ディストリビューション・メトリックを導入する。
論文 参考訳(メタデータ) (2022-10-05T01:23:52Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Instance-wise Hard Negative Example Generation for Contrastive Learning
in Unpaired Image-to-Image Translation [102.99799162482283]
非ペア画像-画像翻訳(NEGCUT)におけるコントラスト学習のための例-wise hard Negative Example Generationを提案する。
具体的には、オンラインでネガティブな例を生成するようにジェネレータを訓練する。ジェネレータは、1)入力画像に基づいて生成されたサンプルをインスタンスワイズし、2)逆向きの損失で訓練されたので、強烈なネガティブな例を生成することができる。
論文 参考訳(メタデータ) (2021-08-10T09:44:59Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Contrastive Learning with Adversarial Perturbations for Conditional Text
Generation [49.055659008469284]
seq2seqモデルのコントラスト学習のための正負のサンプルを生成する原則的な方法を提案する。
具体的には、入力シーケンスに小さな摂動を加えることで、条件付き可能性を最小限に抑えるネガティブな例を生成します。
提案手法は,3つのテキスト生成タスクにおけるSeq2seqの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-12-14T06:20:27Z) - Tracking disease outbreaks from sparse data with Bayesian inference [55.82986443159948]
新型コロナウイルス(COVID-19)のパンデミックは、感染発生時の感染率を推定する新たな動機を与える。
標準的な手法は、より細かいスケールで共通する部分的な観測可能性とスパースなデータに対応するのに苦労する。
原理的に部分観測可能なベイズ的枠組みを提案する。
論文 参考訳(メタデータ) (2020-09-12T20:37:33Z) - Counterexamples to the Low-Degree Conjecture [80.3668228845075]
ホプキンスの予想は、ある高次元仮説テスト問題に対して、非時間アルゴリズムはいわゆる「単純な統計」よりも優れていると仮定する。
この予想は、統計対計算のトレードオフを理解しようとする最近の研究のラインを囲む信念を定式化する。
論文 参考訳(メタデータ) (2020-04-17T21:08:11Z) - Generating Natural Adversarial Hyperspectral examples with a modified
Wasserstein GAN [0.0]
本稿では,第2パラダイムに従う真のデータから,自然な逆例を生成できる新しい手法を提案する。
リモートセンシングデータセット上で逆スペクトル超スペクトルシグネチャを生成することによって,本手法の概念実証を行う。
論文 参考訳(メタデータ) (2020-01-27T07:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。