論文の概要: Online Multitask Learning with Long-Term Memory
- arxiv url: http://arxiv.org/abs/2008.07055v1
- Date: Mon, 17 Aug 2020 01:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 02:58:31.032888
- Title: Online Multitask Learning with Long-Term Memory
- Title(参考訳): 長期記憶を用いたオンラインマルチタスク学習
- Authors: Mark Herbster, Stephen Pasteris, Lisa Tse
- Abstract要約: この設定では、各タスクは学習者に未知のセグメントのシーケンスに分割される。
仮説クラスが有限であるときの仮説数において,各試行を線形に予測するアルゴリズムを提案する。
シングルタスクの特別な場合、これは非パラメトリック仮説クラスに対する長期記憶を持つ効率的な後悔境界切替アルゴリズムの最初の例である。
- 参考スコア(独自算出の注目度): 15.018259942339448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel online multitask setting. In this setting each task is
partitioned into a sequence of segments that is unknown to the learner.
Associated with each segment is a hypothesis from some hypothesis class. We
give algorithms that are designed to exploit the scenario where there are many
such segments but significantly fewer associated hypotheses. We prove regret
bounds that hold for any segmentation of the tasks and any association of
hypotheses to the segments. In the single-task setting this is equivalent to
switching with long-term memory in the sense of [Bousquet and Warmuth; 2003].
We provide an algorithm that predicts on each trial in time linear in the
number of hypotheses when the hypothesis class is finite. We also consider
infinite hypothesis classes from reproducing kernel Hilbert spaces for which we
give an algorithm whose per trial time complexity is cubic in the number of
cumulative trials. In the single-task special case this is the first example of
an efficient regret-bounded switching algorithm with long-term memory for a
non-parametric hypothesis class.
- Abstract(参考訳): 我々は新しいオンラインマルチタスク設定を導入する。
この設定では、各タスクは学習者に未知のセグメントのシーケンスに分割される。
各セグメントに関連付けられた仮説は、ある仮説クラスからの仮説である。
このようなセグメントが多数存在するが、関連する仮説がかなり少ないシナリオを利用するように設計されたアルゴリズムを提供する。
我々は、タスクのセグメンテーションとセグメンテーションへの仮説の関連付けを保持する後悔の限界を証明します。
シングルタスク設定では、これは[Bousquet and Warmuth, 2003]という意味での長期記憶への切り替えに相当する。
仮説クラスが有限であるときの仮説数において,各試行を線形に予測するアルゴリズムを提案する。
また、再生成核ヒルベルト空間から無限の仮説クラスを考えることにより、試行時間毎に累積試行回数が立方的になるようなアルゴリズムを与える。
シングルタスク特別の場合、これは非パラメトリック仮説クラスに対する長期記憶を持つ効率的な後悔境界切替アルゴリズムの最初の例である。
関連論文リスト
- Simultaneous Inference for Local Structural Parameters with Random Forests [19.014535120129338]
我々は条件モーメント方程式の解に対する同時信頼区間を構築する。
我々は高次元U.S.の濃度と正規近似に関する新しい順序抽出結果を得た。
副産物として、高次元U.S.の濃度と正規近似に関するいくつかの新しい順序抽出結果を得る。
論文 参考訳(メタデータ) (2024-05-13T15:46:11Z) - Runtime-coherence trade-offs for hybrid SAT-solvers [1.087459729391301]
総ランタイムとコヒーレンスタイムの間には,単純なトレードオフ関係が存在する,と我々は主張する。
最適トレードオフを伴うハイブリッドアルゴリズムの実装において,さらなる柔軟性を示唆する数値シミュレーションを提案する。
論文 参考訳(メタデータ) (2024-04-23T17:11:39Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Cumulative Memory Lower Bounds for Randomized and Quantum Computation [1.52292571922932]
累積記憶は時間空間の複雑さの尺度である。
逐次古典計算と量子回路の両方において、累積メモリの複雑さに関する最初の下位境界を証明した。
論文 参考訳(メタデータ) (2023-01-13T17:57:02Z) - Multi-Label Quantification [78.83284164605473]
定量化とは、教師なしデータサンプルにおいて、興味あるクラスの相対周波数の予測子を生成する教師付き学習課題である。
本研究では,その相対頻度をより正確に予測するために,興味あるクラス間の依存関係を活用しようとするクラス有病率値の推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-15T11:29:59Z) - A streamlined quantum algorithm for topological data analysis with
exponentially fewer qubits [5.478764356647437]
永続ベッチ数を計算するための改良された量子アルゴリズムを提案する。
量子アルゴリズムが実用的なタスクの指数的高速化を達成できるかどうかを論じる。
論文 参考訳(メタデータ) (2022-09-26T17:56:11Z) - Provable Reinforcement Learning with a Short-Term Memory [68.00677878812908]
我々はPMDPsの新しいサブクラスについて研究し、その潜在状態は、最近の短い長さ$m$の履歴によって復号化することができる。
特に、リッチ・オブザーブレーション・セッティングにおいて、指数関数的にスケールするサンプル複雑性を持つ新しい「モーメントマッチング」アプローチを用いて、新しいアルゴリズムを開発する。
以上の結果から,これらの環境下での強化学習には短期記憶が十分であることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T16:39:57Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Parallelizing Contextual Linear Bandits [82.65675585004448]
並列な)コンテキスト線形バンディットアルゴリズムの族を提示し、その遺残はそれらの完全シーケンシャルなアルゴリズムとほぼ同一である。
また,これらの並列アルゴリズムについて,材料発見や生物配列設計の問題など,いくつかの領域で実証評価を行った。
論文 参考訳(メタデータ) (2021-05-21T22:22:02Z) - Learning Weakly Convex Sets in Metric Spaces [2.0618817976970103]
機械学習理論における中心的な問題は、ゼロエラーを持つ一貫した仮説を効率的に見つけることができるかどうかである。
このアルゴリズムの一般的な考え方は、弱凸仮説の場合にまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2021-05-10T23:00:02Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。