論文の概要: A Two-Stage Active Learning Algorithm for $k$-Nearest Neighbors
- arxiv url: http://arxiv.org/abs/2211.10773v3
- Date: Mon, 17 Jul 2023 16:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 23:58:52.305281
- Title: A Two-Stage Active Learning Algorithm for $k$-Nearest Neighbors
- Title(参考訳): $k$Nearest隣人のための2段階能動学習アルゴリズム
- Authors: Nick Rittler and Kamalika Chaudhuri
- Abstract要約: そこで本研究では,$k$-nearest 近所の分類器を訓練するための,シンプルで直感的な能動学習アルゴリズムを提案する。
提案手法により得られたサンプルに基づいてトレーニングした$k$-nearest 隣人分類器の整合性を保証する。
- 参考スコア(独自算出の注目度): 24.97598179536084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: $k$-nearest neighbor classification is a popular non-parametric method
because of desirable properties like automatic adaption to distributional scale
changes. Unfortunately, it has thus far proved difficult to design active
learning strategies for the training of local voting-based classifiers that
naturally retain these desirable properties, and hence active learning
strategies for $k$-nearest neighbor classification have been conspicuously
missing from the literature. In this work, we introduce a simple and intuitive
active learning algorithm for the training of $k$-nearest neighbor classifiers,
the first in the literature which retains the concept of the $k$-nearest
neighbor vote at prediction time. We provide consistency guarantees for a
modified $k$-nearest neighbors classifier trained on samples acquired via our
scheme, and show that when the conditional probability function
$\mathbb{P}(Y=y|X=x)$ is sufficiently smooth and the Tsybakov noise condition
holds, our actively trained classifiers converge to the Bayes optimal
classifier at a faster asymptotic rate than passively trained $k$-nearest
neighbor classifiers.
- Abstract(参考訳): k$-nearest neighbor classificationは、分散スケールの変更に対する自動適応のような望ましい特性により、一般的なノンパラメトリックな手法である。
残念なことに、これらの望ましい性質を自然に保持する地元の投票ベースの分類器の訓練のためにアクティブラーニング戦略を設計することは困難であり、したがってk$-nearestの隣人分類のためのアクティブラーニング戦略は文学から顕著に欠落している。
そこで本研究では,$k$-nearest近傍の分類器を学習するための,単純で直感的な能動学習アルゴリズムを提案する。
また,条件付き確率関数 $\mathbb{p}(y=y|x=x)$ が十分に滑らかであり,tsybakov 雑音条件が保持されている場合,能動的に訓練された分類器は,受動的に訓練された $k$-nearest 隣接分類器よりも早い漸近速度でベイズ最適分類器に収束することを示す。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Certified Adversarial Robustness Within Multiple Perturbation Bounds [38.3813286696956]
ランダムスムーシング(Randomized smoothing、RS)は、敵の攻撃に対するよく知られた防御である。
本研究では,複数の摂動境界に対して同時に認証された対向ロバスト性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-04-20T16:42:44Z) - RLAS-BIABC: A Reinforcement Learning-Based Answer Selection Using the
BERT Model Boosted by an Improved ABC Algorithm [6.82469220191368]
回答選択(AS)は、オープンドメイン質問応答(QA)問題の重要なサブタスクである。
本稿では、注意機構に基づく長短期メモリ(LSTM)と、変換器(BERT)ワード埋め込みによる双方向エンコーダ表現に基づいて、ASのためのRLAS-BIABCと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-01-07T08:33:05Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Nearest Neighbor Classifier with Margin Penalty for Active Learning [8.689993629819789]
アクティブラーニング(NCMAL)のためのペナルティ付き近親類型分類器を提案する。
第一に、クラス間で強制的マージンペナルティが加えられるため、クラス間の不一致とクラス内のコンパクトさが保証される。
次に,新たなサンプル選択手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T08:51:56Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。