論文の概要: Query Complexity of Active Learning for Function Family With Nearly
Orthogonal Basis
- arxiv url: http://arxiv.org/abs/2306.03356v1
- Date: Tue, 6 Jun 2023 02:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 17:41:59.255066
- Title: Query Complexity of Active Learning for Function Family With Nearly
Orthogonal Basis
- Title(参考訳): 直交基底を持つ関数族に対する能動学習のクエリ複雑性
- Authors: Xiang Chen, Zhao Song, Baocheng Sun, Junze Yin, Danyang Zhuo
- Abstract要約: 医学診断や不正検出などの応用では、専門家、実験、シミュレーションによってデータをラベル付けするのは費用がかかる。
アクティブな学習アルゴリズムは、性能を保ちながら、必要なラベル付きデータポイントの数を減らすことを目的としている。
- 参考スコア(独自算出の注目度): 19.542110074382563
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many machine learning algorithms require large numbers of labeled data to
deliver state-of-the-art results. In applications such as medical diagnosis and
fraud detection, though there is an abundance of unlabeled data, it is costly
to label the data by experts, experiments, or simulations. Active learning
algorithms aim to reduce the number of required labeled data points while
preserving performance. For many convex optimization problems such as linear
regression and $p$-norm regression, there are theoretical bounds on the number
of required labels to achieve a certain accuracy. We call this the query
complexity of active learning. However, today's active learning algorithms
require the underlying learned function to have an orthogonal basis. For
example, when applying active learning to linear regression, the requirement is
the target function is a linear composition of a set of orthogonal linear
functions, and active learning can find the coefficients of these linear
functions. We present a theoretical result to show that active learning does
not need an orthogonal basis but rather only requires a nearly orthogonal
basis. We provide the corresponding theoretical proofs for the function family
of nearly orthogonal basis, and its applications associated with the
algorithmically efficient active learning framework.
- Abstract(参考訳): 多くの機械学習アルゴリズムは、最先端の結果を提供するために大量のラベル付きデータを必要とする。
医療診断や不正検出のようなアプリケーションでは、ラベルのないデータが豊富にあるが、専門家や実験、シミュレーションによってデータをラベル付けするのは費用がかかる。
アクティブな学習アルゴリズムは、性能を保ちながら、必要なラベル付きデータポイントの数を減らすことを目的としている。
線形回帰や$p$-norm回帰のような凸最適化問題には、特定の精度を達成するために必要なラベルの数に理論的境界がある。
これをアクティブラーニングのクエリ複雑性と呼んでいる。
しかし、今日のアクティブ学習アルゴリズムでは、基礎となる学習関数が直交基底を持つ必要がある。
例えば、線形回帰にアクティブラーニングを適用する場合、対象関数は直交線形関数の集合の線形合成であり、アクティブラーニングはこれらの線形関数の係数を見つけることができる。
我々は,能動学習が直交ベースを必要としないだけでなく,ほぼ直交ベースを必要とすることを示す理論的結果を示す。
ほぼ直交基底の関数族に対する対応する理論的証明とそのアルゴリズム的効率的な能動学習フレームワークへの応用について述べる。
関連論文リスト
- regAL: Python Package for Active Learning of Regression Problems [0.0]
PythonパッケージregALでは、レグレッション問題に対するさまざまなアクティブな学習戦略を評価することができる。
我々は,レグレッション問題に対する様々なアクティブ学習戦略を評価することができるPythonパッケージregALを提案する。
論文 参考訳(メタデータ) (2024-10-23T14:34:36Z) - Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Neural Active Learning with Performance Guarantees [37.16062387461106]
非パラメトリックなレシエーションにおけるストリーミング環境におけるアクティブラーニングの問題について検討する。
我々は最近提案されたニューラル・タンジェント・カーネル(NTK)近似ツールを用いて、アルゴリズムが操作する特徴空間と学習したモデルを上から計算する適切なニューラル埋め込みを構築する。
論文 参考訳(メタデータ) (2021-06-06T20:44:23Z) - Machine Learning Assisted Orthonormal Basis Selection for Functional
Data Analysis [0.0]
厳密なデータ駆動による直交基底選択法を提案する。
このアルゴリズムは機械学習スタイルのデータから学習し、効率的に結び目を配置する。
最適性基準は平均(機能的データ点あたり)二乗誤差に基づいており、学習アルゴリズムと比較研究の両方で利用されている。
論文 参考訳(メタデータ) (2021-03-12T18:27:29Z) - On the Robustness of Active Learning [0.7340017786387767]
Active Learningは、機械学習アルゴリズムをトレーニングする上で最も有用なサンプルを特定する方法に関するものだ。
十分な注意とドメイン知識を持っていないことがよくあります。
そこで本研究では,Simpson の多様性指標に基づく新たな "Sum of Squared Logits" 手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:07:23Z) - Provable Meta-Learning of Linear Representations [114.656572506859]
我々は、複数の関連するタスクから共通の機能の集合を学習し、その知識を新しい未知のタスクに転送する、という2つの課題に対処する、高速でサンプル効率のアルゴリズムを提供する。
また、これらの線形特徴を学習する際のサンプルの複雑さに関する情報理論の下限も提供する。
論文 参考訳(メタデータ) (2020-02-26T18:21:34Z) - Fase-AL -- Adaptation of Fast Adaptive Stacking of Ensembles for
Supporting Active Learning [0.0]
本研究は,Active Learning を用いて非ラベルのインスタンスで分類モデルを誘導する FASE-AL アルゴリズムを提案する。
このアルゴリズムは、正しく分類されたインスタンスの割合で有望な結果を得る。
論文 参考訳(メタデータ) (2020-01-30T17:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。