論文の概要: Generating Synthetic Data with The Nearest Neighbors Algorithm
- arxiv url: http://arxiv.org/abs/2210.00884v1
- Date: Mon, 3 Oct 2022 12:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:43:54.692025
- Title: Generating Synthetic Data with The Nearest Neighbors Algorithm
- Title(参考訳): 近接近傍アルゴリズムによる合成データの生成
- Authors: Ali Furkan Kalay
- Abstract要約: 近辺の$k$(k$NN)は、様々な目的で使われる最も人気のあるノンパラメトリックメソッドの1つである。
本稿では、ローカルリサンプラーLRと呼ばれる一般半パラメトリックまたは非パラメトリックアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The $k$ nearest neighbor algorithm ($k$NN) is one of the most popular
nonparametric methods used for various purposes, such as treatment effect
estimation, missing value imputation, classification, and clustering. The main
advantage of $k$NN is its simplicity of hyperparameter optimization. It often
produces favorable results with minimal effort. This paper proposes a generic
semiparametric (or nonparametric if required) approach named Local Resampler
(LR). LR utilizes $k$NN to create subsamples from the original sample and then
generates synthetic values that are drawn from locally estimated distributions.
LR can accurately create synthetic samples, even if the original sample has a
non-convex distribution. Moreover, LR shows better or similar performance to
other popular synthetic data methods with minimal model optimization with
parametric distributional assumptions.
- Abstract(参考訳): k$近くのアルゴリズム(k$NN)は、治療効果の推定、値の計算の欠如、分類、クラスタリングなど、様々な目的で使われる最も一般的なノンパラメトリック手法の1つである。
k$NNの主な利点は、ハイパーパラメータ最適化の単純さである。
しばしば最小限の努力で良い結果をもたらす。
本稿では,ローカル・リサンプラー (LR) と呼ばれる一般半パラメトリック・非パラメトリックなアプローチを提案する。
lr は $k$nn を使って元のサンプルから副サンプルを作成し、局所的に推定された分布から引き出される合成値を生成する。
LRは、元のサンプルが非凸分布であっても、正確に合成サンプルを作成することができる。
さらに、LRはパラメトリック分布仮定で最小限のモデル最適化を施した他の一般的な合成データ手法よりも優れているか類似した性能を示す。
関連論文リスト
- Linear-time Minimum Bayes Risk Decoding with Reference Aggregation [52.1701152610258]
最小ベイズリスク(MBR、Minimum Bayes Risk)は、機械翻訳の品質向上を図ったテキスト生成技術である。
これは2次複雑性を持つ実用計量のペアワイズ計算を必要とする。
本稿では,集約された参照表現に対して計算したスコアを用いて,ペアワイズメトリックスコアを近似する。
論文 参考訳(メタデータ) (2024-02-06T18:59:30Z) - Feature Adaptation for Sparse Linear Regression [20.923321050404827]
スパース線形回帰は高次元統計学における中心的な問題である。
少数の近似依存を許容するアルゴリズムを提供する。
我々のフレームワークは、疎線形回帰のためのより広範な機能適応のフレームワークに適合する。
論文 参考訳(メタデータ) (2023-05-26T12:53:13Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - SIMPLE: A Gradient Estimator for $k$-Subset Sampling [42.38652558807518]
この作業では、フォワードパスの離散$k$-subsetサンプリングに戻ります。
勾配推定器 SIMPLE は, 最先端推定器と比較して, バイアスやばらつきが低いことを示す。
実験結果から,線形回帰を説明・スパースする学習性能が向上した。
論文 参考訳(メタデータ) (2022-10-04T22:33:16Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - PL-$k$NN: A Parameterless Nearest Neighbors Classifier [0.24499092754102875]
k$-Nearest Neighborsは、多くの問題で使われている最も効果的で簡単なモデルの1つである。
本稿では、$k$の値を定義する必要性を回避した$k$-Nearest Neighbors分類器を提案する。
論文 参考訳(メタデータ) (2022-09-26T12:52:45Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Learning Entangled Single-Sample Distributions via Iterative Trimming [28.839136703139225]
そこで本研究では, 反復トリミング標本に基づいて, 簡便かつ効率的な手法を解析し, トリミング標本集合上のパラメータを再推定する。
対数反復法では, 誤差が$lceil alpha n rceil$-th ノイズ点の雑音レベルにのみ依存する推定値が出力されることを示す。
論文 参考訳(メタデータ) (2020-04-20T18:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。