論文の概要: K-NN active learning under local smoothness assumption
- arxiv url: http://arxiv.org/abs/2001.06485v2
- Date: Sun, 12 Jul 2020 08:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 10:07:21.491764
- Title: K-NN active learning under local smoothness assumption
- Title(参考訳): 局所滑らか性仮定に基づくK-NN能動学習
- Authors: Boris Ndjia Njike, Xavier Siebert
- Abstract要約: 我々は受動的学習よりも収束率の高い能動的学習アルゴリズムを設計する。
従来のアクティブな学習アルゴリズムとは異なり、インスタンス空間の限界分布に依存する滑らかな仮定を用いる。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a large body of work on convergence rates either in passive or
active learning. Here we first outline some of the main results that have been
obtained, more specifically in a nonparametric setting under assumptions about
the smoothness of the regression function (or the boundary between classes) and
the margin noise. We discuss the relative merits of these underlying
assumptions by putting active learning in perspective with recent work on
passive learning. We design an active learning algorithm with a rate of
convergence better than in passive learning, using a particular smoothness
assumption customized for k-nearest neighbors. Unlike previous active learning
algorithms, we use a smoothness assumption that provides a dependence on the
marginal distribution of the instance space. Additionally, our algorithm avoids
the strong density assumption that supposes the existence of the density
function of the marginal distribution of the instance space and is therefore
more generally applicable.
- Abstract(参考訳): 受動的あるいはアクティブな学習において、収束率に関する多くの研究がある。
ここでは、まず得られた主な結果のいくつかを概説し、より具体的には回帰関数の滑らかさ(あるいはクラス間の境界)とマージンノイズの仮定の下で非パラメトリックな設定で概説する。
本稿では,近年の受動的学習研究を視点として,これらの仮定の相対的なメリットを考察する。
我々は,k-nearest近傍にカスタマイズされた特定の平滑性仮定を用いて,受動的学習よりも収束率の高いアクティブ学習アルゴリズムを設計する。
従来のアクティブラーニングアルゴリズムとは異なり、インスタンス空間の限界分布に依存する滑らかさの仮定を用いる。
さらに,本アルゴリズムは,インスタンス空間の周縁分布の密度関数の存在を仮定した強密度仮定を回避し,より一般に適用可能である。
関連論文リスト
- Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Poisson Reweighted Laplacian Uncertainty Sampling for Graph-based Active
Learning [1.6752182911522522]
グラフに基づく能動学習において,不確実性サンプリングは探索と搾取を両立させるのに十分であることを示す。
特に,最近開発されたアルゴリズムであるPoisson ReWeighted Laplace Learning (PWLL) を用いて分類を行う。
本稿では,複数のグラフに基づく画像分類問題に対する実験結果について述べる。
論文 参考訳(メタデータ) (2022-10-27T22:07:53Z) - Using Sum-Product Networks to Assess Uncertainty in Deep Active Learning [3.7507283158673212]
本稿では,畳み込みニューラルネットワーク(CNN)を用いた深層能動学習における不確かさの計算方法を提案する。
CNN が抽出した特徴表現を Sum-Product Network (SPN) のトレーニングデータとして利用する。
論文 参考訳(メタデータ) (2022-06-20T14:28:19Z) - Efficient and Near-Optimal Smoothed Online Learning for Generalized
Linear Functions [28.30744223973527]
我々は,K-wise線形分類において,統計学的に最適なログ(T/sigma)の後悔を初めて楽しむ計算効率のよいアルゴリズムを提案する。
一般化線形分類器によって誘導される不一致領域の幾何学の新たな特徴付けを開発する。
論文 参考訳(メタデータ) (2022-05-25T21:31:36Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Convergence of Uncertainty Sampling for Active Learning [11.115182142203711]
複数のクラスに拡張する二項分類のための効率的な不確実性推定器を提案する。
我々は,二項分類と多項分類のタスクにおいて,雑音の影響下でのアルゴリズムの理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-29T13:51:30Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Nonparametric adaptive active learning under local smoothness condition [0.76146285961466]
本稿では,最小仮定の非パラメトリック環境における適応型アクティブラーニングの問題に対処する。
従来知られていたアルゴリズムよりも,より一般的な仮定の下で有効な新しいアルゴリズムを提案する。
我々のアルゴリズムは最小収束率を達成し、最もよく知られた非適応アルゴリズムと同等に機能する。
論文 参考訳(メタデータ) (2021-02-22T14:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。