論文の概要: On the Statistical Complexity of Sample Amplification
- arxiv url: http://arxiv.org/abs/2201.04315v1
- Date: Wed, 12 Jan 2022 05:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 15:17:18.929845
- Title: On the Statistical Complexity of Sample Amplification
- Title(参考訳): サンプル増幅の統計的複雑性について
- Authors: Brian Axelrod, Shivam Garg, Yanjun Han, Vatsal Sharan, Gregory Valiant
- Abstract要約: 未知の分布から引き出された$n$ i.i.d.サンプルが与えられたら、いつより大きな$n+m$ i.i.d.サンプルを生成することができるのか?
サンプル増幅問題を, 一般に適用可能な増幅手順, 低境界技術, 既存の統計的概念との関係を導出することにより, しっかりとした統計基盤に配置する。
- 参考スコア(独自算出の注目度): 43.612884935666116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given $n$ i.i.d. samples drawn from an unknown distribution $P$, when is it
possible to produce a larger set of $n+m$ samples which cannot be distinguished
from $n+m$ i.i.d. samples drawn from $P$? (Axelrod et al. 2019) formalized this
question as the sample amplification problem, and gave optimal amplification
procedures for discrete distributions and Gaussian location models. However,
these procedures and associated lower bounds are tailored to the specific
distribution classes, and a general statistical understanding of sample
amplification is still largely missing. In this work, we place the sample
amplification problem on a firm statistical foundation by deriving generally
applicable amplification procedures, lower bound techniques and connections to
existing statistical notions. Our techniques apply to a large class of
distributions including the exponential family, and establish a rigorous
connection between sample amplification and distribution learning.
- Abstract(参考訳): 未知の分布から引き出された$n$ i.i.d.サンプルを$P$とすれば、$P$から引き出された$n+m$と区別できない、より大きな$n+m$サンプルをいつ作成できるのか?
(axelrod et al. 2019)はこの問題をサンプル増幅問題として定式化し、離散分布とガウスの位置モデルに対する最適増幅手順を与えた。
しかしながら、これらの手順と関連する下限は、特定の分布クラスに合わせて調整されており、サンプル増幅に関する一般的な統計的理解はいまだにほとんど失われていない。
本研究では,一般に適用可能な増幅手順,下限手法,既存統計概念との接続を導出することにより,サンプル増幅問題を強固な統計的基礎に配置する。
本手法は指数関数群を含む大規模分布に適用し,サンプル増幅と分布学習の厳密な関係を確立する。
関連論文リスト
- An Efficient Quasi-Random Sampling for Copulas [3.400056739248712]
本稿では、GAN(Generative Adrial Networks)のような生成モデルを用いて、任意のコプラに対して準ランダムなサンプルを生成することを提案する。
GANは、複雑なデータの分布を学習するために使われる暗黙的な生成モデルの一種であり、簡単にサンプリングできる。
論文 参考訳(メタデータ) (2024-03-08T13:01:09Z) - Which Pretrain Samples to Rehearse when Finetuning Pretrained Models? [60.59376487151964]
特定のタスクに関する微調整済みモデルが、テキストとビジョンタスクの事実上のアプローチになった。
このアプローチの落とし穴は、微調整中に起こる事前学習の知識を忘れることである。
本研究では,実際に忘れられているサンプルを識別・優先順位付けする新しいサンプリング手法であるmix-cdを提案する。
論文 参考訳(メタデータ) (2024-02-12T22:32:12Z) - Simple and effective data augmentation for compositional generalization [64.00420578048855]
MRをサンプリングし,それらを逆翻訳するデータ拡張法は,合成一般化に有効であることを示す。
注目すべきは、一様分布からのサンプリングは、テスト分布からのサンプリングとほぼ同等に実行されることである。
論文 参考訳(メタデータ) (2024-01-18T09:13:59Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Efficient Parameter Estimation of Truncated Boolean Product
Distributions [26.396901523831534]
切り離されたサンプルからの学習の計算的および統計的複雑さが離散的な設定で検討されたのはこれが初めてである。
トラニケート集合が十分に太った場合, トラニケートされた試料から真の分布から試料を生成できることが示される。
論文 参考訳(メタデータ) (2020-07-05T17:20:39Z) - Learning Entangled Single-Sample Distributions via Iterative Trimming [28.839136703139225]
そこで本研究では, 反復トリミング標本に基づいて, 簡便かつ効率的な手法を解析し, トリミング標本集合上のパラメータを再推定する。
対数反復法では, 誤差が$lceil alpha n rceil$-th ノイズ点の雑音レベルにのみ依存する推定値が出力されることを示す。
論文 参考訳(メタデータ) (2020-04-20T18:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。