論文の概要: Active Learning with Multiple Kernels
- arxiv url: http://arxiv.org/abs/2005.03188v1
- Date: Thu, 7 May 2020 00:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:58:00.940036
- Title: Active Learning with Multiple Kernels
- Title(参考訳): 複数のカーネルによるアクティブラーニング
- Authors: Songnam Hong and Jeongmin Chae
- Abstract要約: ストリームベースアクティブマルチカーネル学習(AMKL)と呼ばれる新しい研究課題を導入する。
AMKLは、学習者が選択基準に従って、オラクルから選択したデータをラベル付けすることを可能にする。
我々は、無関係なカーネルを「オンザフライ」カーネル辞書から除外できる適応カーネル選択(AMKL-AKS)を持つAMKLを提案する。
- 参考スコア(独自算出の注目度): 10.203602318836444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online multiple kernel learning (OMKL) has provided an attractive performance
in nonlinear function learning tasks. Leveraging a random feature
approximation, the major drawback of OMKL, known as the curse of
dimensionality, has been recently alleviated. In this paper, we introduce a new
research problem, termed (stream-based) active multiple kernel learning (AMKL),
in which a learner is allowed to label selected data from an oracle according
to a selection criterion. This is necessary in many real-world applications as
acquiring true labels is costly or time-consuming. We prove that AMKL achieves
an optimal sublinear regret, implying that the proposed selection criterion
indeed avoids unuseful label-requests. Furthermore, we propose AMKL with an
adaptive kernel selection (AMKL-AKS) in which irrelevant kernels can be
excluded from a kernel dictionary 'on the fly'. This approach can improve the
efficiency of active learning as well as the accuracy of a function
approximation. Via numerical tests with various real datasets, it is
demonstrated that AMKL-AKS yields a similar or better performance than the
best-known OMKL, with a smaller number of labeled data.
- Abstract(参考訳): オンラインマルチカーネル学習(OMKL)は非線形関数学習タスクにおいて魅力的な性能を提供している。
ランダムな特徴近似を利用して、次元性の呪いとして知られるOMKLの大きな欠点は、最近緩和されている。
本稿では,学習者が選択基準に従ってオラクルから選択したデータをラベル付けすることができるAMKL(stream-based active multiple kernel learning)と呼ばれる新しい研究問題を提案する。
これは多くの現実世界のアプリケーションにおいて、真のラベルを取得するのにコストがかかるか時間がかかるため必要である。
AMKLが最適なサブ線形後悔を達成できることを証明し、提案した選択基準が本当に役に立たないラベル要求を回避することを示唆する。
さらに,無関係なカーネルを「オンザフライ」のカーネル辞書から排除できる適応型カーネル選択(amkl-aks)を持つamklを提案する。
このアプローチは、能動学習の効率と関数近似の精度を向上させることができる。
各種実データを用いた数値実験により,amkl-aksは最もよく知られたomklと同等あるいは優れた性能を得られ,ラベル付きデータも少ない。
関連論文リスト
- Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - DKL-KAN: Scalable Deep Kernel Learning using Kolmogorov-Arnold Networks [0.0]
本稿では,DKL-MLPを用いたDKLの代替として,kan(DKL-KAN)を用いたスケーラブルなディープカーネルを提案する。
DKL-MLPと比較して,DKL-KANの2つの変種を分析した。
DKL-KANの有効性は、幅広いアプリケーションにわたる計算訓練時間とテスト予測精度の観点から評価される。
論文 参考訳(メタデータ) (2024-07-30T20:30:44Z) - Embedded Multi-label Feature Selection via Orthogonal Regression [45.55795914923279]
少なくとも2乗回帰に基づく最先端の組込みマルチラベル特徴選択アルゴリズムは、マルチラベルデータに十分な識別情報を保存できない。
複数ラベルの特徴選択を容易にするために, 組込み多ラベル特徴選択法を提案する。
10個の多ラベルデータセットの大規模な実験結果から,GRROORの有効性が示された。
論文 参考訳(メタデータ) (2024-03-01T06:18:40Z) - Personalized Online Federated Learning with Multiple Kernels [26.823435733330705]
フェデレートラーニング(Federated Learning)は、学習者のグループ(クライアントと呼ばれる)が、クライアント間で分散されたデータ上でMKLモデルをトレーニングすることを可能にする。
本稿では,クライアントがサーバと通信可能なアルゴリズムフレームワークを開発した。
提案したオンラインフェデレーションMKLアルゴリズムを用いて、各クライアントは、後から最高のカーネルのRF近似に関して、サブ線形後悔を享受する。
論文 参考訳(メタデータ) (2023-11-09T02:51:37Z) - MyriadAL: Active Few Shot Learning for Histopathology [10.652626309100889]
我々は、Myriad Active Learning (MAL)という、アクティブな数個のショットラーニングフレームワークを導入する。
MALには、コントラスト学習エンコーダ、擬似ラベル生成、ループ内の新しいクエリサンプル選択が含まれている。
2つの公的な病理組織学データセットの実験により、MALは以前の研究に比べてテスト精度、マクロF1スコア、ラベル効率が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T20:08:15Z) - Prompt-driven efficient Open-set Semi-supervised Learning [52.30303262499391]
オープンセット半教師付き学習(OSSL)は関心を集めており、未ラベルデータにのみOOD(Out-of-distribution)サンプルが組み込まれているというより実践的なシナリオを調査している。
我々はOpenPromptと呼ばれる,プロンプト駆動の効率的なOSSLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T16:25:08Z) - ALLSH: Active Learning Guided by Local Sensitivity and Hardness [98.61023158378407]
本稿では,局所感度と硬度認識獲得機能を備えたラベル付きサンプルの検索を提案する。
本手法は,様々な分類タスクにおいてよく用いられるアクティブラーニング戦略よりも一貫した利得が得られる。
論文 参考訳(メタデータ) (2022-05-10T15:39:11Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Graph-Aided Online Multi-Kernel Learning [12.805267089186533]
本稿では, 良好な関数近似を提供する辞書から, データ駆動によるカーネルの選択について検討する。
カーネル間の類似性に基づいて、新しいフレームワークは、カーネルのサブセットの選択を支援するためにグラフを構築し、洗練する。
提案アルゴリズムは、最先端のグラフベースのオンラインMKL代替品と比較して、より厳密なサブ線形後悔を享受する。
論文 参考訳(メタデータ) (2021-02-09T07:43:29Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。