論文の概要: Multiple Support Recovery Using Very Few Measurements Per Sample
- arxiv url: http://arxiv.org/abs/2105.09855v1
- Date: Thu, 20 May 2021 16:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:22:47.904714
- Title: Multiple Support Recovery Using Very Few Measurements Per Sample
- Title(参考訳): 試料当たりの超微量測定による複数支援回収
- Authors: Lekshmi Ramesh, Chandra R. Murthy, Himanshu Tyagi
- Abstract要約: 我々は$mathbbRd$で複数のスパースサンプルの線形測定にアクセスできる。
これらのサンプルは$ell$グループに分割することができ、同じグループに属する同じサポートを持つサンプルがある。
サンプルあたりの$m$測定の予算について、その目標は、$ell$の基盤となるサポートを回復することである。
- 参考スコア(独自算出の注目度): 33.20967869233738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the problem of multiple support recovery, we are given access to linear
measurements of multiple sparse samples in $\mathbb{R}^{d}$. These samples can
be partitioned into $\ell$ groups, with samples having the same support
belonging to the same group. For a given budget of $m$ measurements per sample,
the goal is to recover the $\ell$ underlying supports, in the absence of the
knowledge of group labels. We study this problem with a focus on the
measurement-constrained regime where $m$ is smaller than the support size $k$
of each sample. We design a two-step procedure that estimates the union of the
underlying supports first, and then uses a spectral algorithm to estimate the
individual supports. Our proposed estimator can recover the supports with $m<k$
measurements per sample, from $\tilde{O}(k^{4}\ell^{4}/m^{4})$ samples. Our
guarantees hold for a general, generative model assumption on the samples and
measurement matrices. We also provide results from experiments conducted on
synthetic data and on the MNIST dataset.
- Abstract(参考訳): 複数のサポートリカバリの問題では、$\mathbb{r}^{d}$ で複数のスパースサンプルの線形測定へのアクセスが与えられる。
これらのサンプルは$\ell$グループに分割することができ、サンプルは同じグループに属する同じサポートを持つ。
サンプルあたりの$m$測定の予算については、グループラベルの知識がなければ、$$\ell$の基盤となるサポートを回復することが目標である。
本研究では,m$が各試料の支持サイズ$k$よりも小さい測定制約型体制に着目して,この問題を考察する。
まず,基礎となるサポートの結合を推定する2段階の手順を設計,次にスペクトルアルゴリズムを用いて個々のサポートを推定する。
提案した推定器は、$\tilde{O}(k^{4}\ell^{4}/m^{4})$サンプルから、サンプルあたりのm<k$測定でサポートを回復することができる。
我々の保証は、サンプルと測定行列の一般的な生成モデル仮定を定めている。
また,合成データとmnistデータセットを用いた実験結果も提供する。
関連論文リスト
- Thinning a Wishart Random Matrix [3.734088413551237]
独立な$N_p(mu, Sigma)$行を持つ2つの独立したデータ行列を生成することができることを示す。
これらの独立したデータ行列は、トレインテストのパラダイム内で直接使用したり、独立した要約統計を引き出すために使用することができる。
論文 参考訳(メタデータ) (2025-02-14T07:34:38Z) - Large Language Monkeys: Scaling Inference Compute with Repeated Sampling [81.34900892130929]
モデルから候補解を繰り返しサンプリングする簡単な手法を用いて、推論計算をスケーリングのための別の軸として検討する。
複数のタスクやモデルにまたがって、カバレッジは4桁以上のサンプル数でスケールする。
コードや形式的証明のようなドメインでは、回答が自動的に検証されるので、カバレッジの増加は直接的にパフォーマンスの向上につながります。
論文 参考訳(メタデータ) (2024-07-31T17:57:25Z) - GROS: A General Robust Aggregation Strategy [49.1574468325115]
距離空間における推定器を組み合わせるための新しい、非常に一般的な、堅牢な手順が導入された。
最小化が標本を乗っ取ると、同じ(定数まで)準ガウス性が得られることを示す。
GROSの性能は5つのシミュレーション研究により評価した。
論文 参考訳(メタデータ) (2024-02-23T17:00:32Z) - Testing with Non-identically Distributed Samples [20.74768558932617]
本研究では,サンプルが独立に分布するが同一に分布しない設定に対して,サブ線形サンプル特性試験と推定が適用範囲について検討する。
それぞれのディストリビューションから$Theta(k/varepsilon2)$サンプルをサンプリングしても、$textbfp_mathrmavg$は、テレビ距離で$textbfp_mathrmavg$をエラー$varepsilon$内で学習するのに十分である。
論文 参考訳(メタデータ) (2023-11-19T01:25:50Z) - Improved Active Learning via Dependent Leverage Score Sampling [8.400581768343804]
本研究では,非依存的(逆方向雑音)環境下での能動学習手法の改善方法について述べる。
エンフェボタルサンプリングアルゴリズムに基づく簡単な実装法を提案する。
独立サンプリングと比較して,本手法は,所定の目標精度に到達するために必要なサンプル数を最大50%削減する。
論文 参考訳(メタデータ) (2023-10-08T01:51:30Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Meta Sparse Principal Component Analysis [31.403997435274604]
高次元主成分分析における支援のためのメタラーニング(非零成分集合)について検討した。
補助的なタスクから学習した情報を用いて,新しいタスクにおける十分なサンプルの複雑さを低減する。
論文 参考訳(メタデータ) (2022-08-18T16:28:31Z) - Meta Learning for Support Recovery in High-dimensional Precision Matrix
Estimation [31.41834200409171]
高次元精度行列推定における支援のためのメタラーニング(非ゼロ成分の集合)について検討する。
我々の設定では、各タスクは異なるランダムな真の精度行列を持ち、それぞれが異なる可能性がある。
我々は,Omega(log N)/K)$$nのサンプル数に対して,一致する情報理論の下界を証明した。
論文 参考訳(メタデータ) (2020-06-22T20:24:52Z) - A Randomized Algorithm to Reduce the Support of Discrete Measures [79.55586575988292]
離散確率測度が$N$原子と$n$実数値関数の集合で成り立つと、元の$N$原子の$n+1$の部分集合で支えられる確率測度が存在する。
我々は、負の円錐によるバリセンターの簡単な幾何学的特徴付けを与え、この新しい測度を「グリード幾何学的サンプリング」によって計算するランダム化アルゴリズムを導出する。
次に、その性質を研究し、それを合成および実世界のデータにベンチマークして、$Ngg n$ regimeにおいて非常に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-02T16:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。