論文の概要: Active Learning Polynomial Threshold Functions
- arxiv url: http://arxiv.org/abs/2201.09433v1
- Date: Mon, 24 Jan 2022 03:23:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 04:51:03.790299
- Title: Active Learning Polynomial Threshold Functions
- Title(参考訳): 能動的学習多項閾値関数
- Authors: Omri Ben-Eliezer, Max Hopkins, Chutong Yang, Hantao Yu
- Abstract要約: 能動学習閾値関数(PTF)の研究
学習者が基礎となる分類器のデリバティブに基本的なアクセスを許すことでこの問題を回避できることが示される。
また,いくつかのケース設定において,能動的学習 PTF のための準最適アルゴリズムと解析も提供する。
- 参考スコア(独自算出の注目度): 4.597586763474062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We initiate the study of active learning polynomial threshold functions
(PTFs). While traditional lower bounds imply that even univariate quadratics
cannot be non-trivially actively learned, we show that allowing the learner
basic access to the derivatives of the underlying classifier circumvents this
issue and leads to a computationally efficient algorithm for active learning
degree-$d$ univariate PTFs in $\tilde{O}(d^3\log(1/\varepsilon\delta))$
queries. We also provide near-optimal algorithms and analyses for active
learning PTFs in several average case settings. Finally, we prove that access
to derivatives is insufficient for active learning multivariate PTFs, even
those of just two variables.
- Abstract(参考訳): 我々は,アクティブラーニング多項式しきい値関数(ptfs)の研究を開始する。
従来の下界は、単変量二次数でさえ非自明に学習できないことを示しているが、基礎となる分類器の導関数への学習者が基本的なアクセスを許すことでこの問題を回避し、能動的学習度に対する計算効率の良いアルゴリズムが導かれることを示している。
また,アクティブラーニング ptf に対する近似最適アルゴリズムと解析を,いくつかの平均ケース設定で提供する。
最後に,2変数であっても,多変量 PTF の学習には導関数へのアクセスが不十分であることを示す。
関連論文リスト
- Basis-to-Basis Operator Learning Using Function Encoders [16.128154294012543]
本稿では、ヒルベルト空間上の演算子を学習するための新しいアプローチであるB2B演算子学習について述べる。
固有分解や特異値分解と直接類似した演算子学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-09-30T19:18:34Z) - Super Non-singular Decompositions of Polynomials and their Application to Robustly Learning Low-degree PTFs [39.468324211376505]
低次しきい値関数 (PTF) の, 対向汚職の一定割合の存在下での効率的な学習性について検討した。
提案アルゴリズムは,線形しきい値関数の学習に使用されていた局所化手法に着想を得た反復的手法を用いている。
論文 参考訳(メタデータ) (2024-03-31T02:03:35Z) - Efficient Active Learning with Abstention [12.315392649501101]
計算効率のよい能動学習アルゴリズムを開発した。
このアルゴリズムの重要な特徴は、アクティブな学習でしばしば見られる望ましくない「ノイズ探索」行動を避けることである。
論文 参考訳(メタデータ) (2022-03-31T18:34:57Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Parameter-free Gradient Temporal Difference Learning [3.553493344868414]
強化学習のためのグラデーションに基づく時間差アルゴリズムを開発。
当社のアルゴリズムは線形時間で動作し、GTD2のものを$log$ファクタまで一致させる高確率収束を保証します。
本実験は,本手法が完全に調整されたベースラインに対して高い予測性能を保ちながら,チューニングを一切行わないことを示す。
論文 参考訳(メタデータ) (2021-05-10T06:07:05Z) - Active Learning for Sequence Tagging with Deep Pre-trained Models and
Bayesian Uncertainty Estimates [52.164757178369804]
自然言語処理のためのトランスファーラーニングとアクティブラーニングの最近の進歩は、必要なアノテーション予算を大幅に削減する可能性を開く。
我々は,様々なベイズ不確実性推定手法とモンテカルロドロップアウトオプションの実験的研究を,アクティブ学習フレームワークで実施する。
また, 能動学習中にインスタンスを取得するためには, 完全サイズのトランスフォーマーを蒸留版に置き換えることにより, 計算性能が向上することを示した。
論文 参考訳(メタデータ) (2021-01-20T13:59:25Z) - Batch Value-function Approximation with Only Realizability [17.692408242465763]
バッチ強化学習(RL):探索データセットからQstar$を学習する。
我々のアルゴリズムであるBVFTは、トーナメントの手順を通じて硬さ予想(探索データというより強い概念の下では)を破る。
また、BVFTが他の拡張と開問題の間のモデル選択にどのように適用できるかについても論じる。
論文 参考訳(メタデータ) (2020-08-11T20:09:37Z) - Algorithms and SQ Lower Bounds for PAC Learning One-Hidden-Layer ReLU
Networks [48.32532049640782]
ガウス境界の下で, 1層ReLUネットワークを$k$の隠れ単位で学習する問題をmathbbRd$で研究する。
正の係数の場合、この学習問題の初回アルゴリズムを$k$から$tildeOOmega(sqrtlog d)$まで与える。
論文 参考訳(メタデータ) (2020-06-22T17:53:54Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。