論文の概要: Active Online Learning with Hidden Shifting Domains
- arxiv url: http://arxiv.org/abs/2006.14481v2
- Date: Fri, 26 Feb 2021 03:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:11:49.342227
- Title: Active Online Learning with Hidden Shifting Domains
- Title(参考訳): 隠れたシフトドメインによるアクティブオンライン学習
- Authors: Yining Chen, Haipeng Luo, Tengyu Ma, Chicheng Zhang
- Abstract要約: 本稿では,その後悔度とラベルクエリ数とを適応的にバランスさせる,驚くほど単純なアルゴリズムを提案する。
我々のアルゴリズムは、異なる領域からの入力のインターリービングスパンを適応的に処理できる。
- 参考スコア(独自算出の注目度): 64.75186088512034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online machine learning systems need to adapt to domain shifts. Meanwhile,
acquiring label at every timestep is expensive. We propose a surprisingly
simple algorithm that adaptively balances its regret and its number of label
queries in settings where the data streams are from a mixture of hidden
domains. For online linear regression with oblivious adversaries, we provide a
tight tradeoff that depends on the durations and dimensionalities of the hidden
domains. Our algorithm can adaptively deal with interleaving spans of inputs
from different domains. We also generalize our results to non-linear regression
for hypothesis classes with bounded eluder dimension and adaptive adversaries.
Experiments on synthetic and realistic datasets demonstrate that our algorithm
achieves lower regret than uniform queries and greedy queries with equal
labeling budget.
- Abstract(参考訳): オンライン機械学習システムはドメインシフトに適応する必要がある。
一方、各時刻にラベルを取得するのは費用がかかる。
我々は,データストリームが隠されたドメインの混在する環境で,その後悔とラベルクエリの数とを適応的にバランスさせる,驚くほど単純なアルゴリズムを提案する。
斜め逆境を持つオンライン線形回帰では,隠れた領域の持続時間と次元に依存する厳密なトレードオフを提供する。
我々のアルゴリズムは、異なる領域からの入力のインターリービングを適応的に処理できる。
また,有界楕円次元と適応逆数を持つ仮説クラスに対して,この結果を非線形回帰に一般化する。
合成および現実的なデータセットの実験により,同程度のラベル付け予算を持つ不均一なクエリや欲求的なクエリよりも,アルゴリズムの後悔度が低いことを示す。
関連論文リスト
- Oracle Efficient Algorithms for Groupwise Regret [7.840453701379554]
睡眠専門家によるBlum & Lykouris(Blum & Lykouris)の簡易な修正は、外的後悔不在集団の考慮を減らし、よく理解された問題に効果的に還元できることを示す。
グループ間で一様に比較すると,従来のオンライン線形回帰アルゴリズムに比べ誤差が大幅に改善され,グループ的に反省する保証がないことがわかった。
論文 参考訳(メタデータ) (2023-10-07T02:17:22Z) - Online Label Shift: Optimal Dynamic Regret meets Practical Algorithms [33.61487362513345]
本稿では、教師付きおよび教師なしのオンラインラベルシフトに焦点を当て、クラス境界の$Q(y)$は異なるが、クラス条件の$Q(x|y)$は不変である。
教師なしの環境では、オフラインラベル付きデータに基づいてトレーニングされた学習者を、ラベルなしのオンラインデータに対してラベル分布を変更するように適応させることが目的です。
我々は,オンライン回帰への適応問題を低減し,ラベル分布のドリフトの程度を事前に知ることなく,最適な動的後悔を保証する新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-31T05:39:52Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Deep Policies for Online Bipartite Matching: A Reinforcement Learning
Approach [5.683591363967851]
本稿では,過去のデータに対する試行錯誤に基づく適切な対応策を導出するためのエンドツーエンド強化学習フレームワークを提案する。
学習手法の大部分は,4つの合成および実世界のデータセットにおいて,古典的なグリーディアルゴリズムよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:04:19Z) - Online Continual Adaptation with Active Self-Training [69.5815645379945]
本研究では,ラベルなしサンプルと限定ラベルのアクティブクエリの両方を用いて,学習者が変化に継続的に適応することを目的としたオンライン環境を提案する。
Online Self-Adaptive Mirror Descent (OSAMD)は、未ラベルのデータからオンラインの自己学習を可能にするオンライン教師学生構造を採用している。
我々は,OSAMDが実世界とシミュレーションデータの両方に限定されたラベルを持つ環境変化下で,好意的な後悔を達成していることを示す。
論文 参考訳(メタデータ) (2021-06-11T17:51:25Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Flexible deep transfer learning by separate feature embeddings and
manifold alignment [0.0]
オブジェクト認識は、業界と防衛において重要な存在である。
残念ながら、既存のラベル付きデータセットでトレーニングされたアルゴリズムは、データ分布が一致しないため、直接新しいデータに一般化しない。
本稿では,各領域の特徴抽出を個別に学習することで,この制限を克服する新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-22T19:24:44Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Understanding Self-Training for Gradual Domain Adaptation [107.37869221297687]
段階的なドメイン適応は、対象領域へ徐々にシフトするラベルのないデータのみを与えられたソースドメインで訓練された初期分類器を適応させることが目的である。
目標領域への直接適応が非有界誤差をもたらすような設定下において、段階的なシフトを伴う自己学習の誤差に対する最初の非無空上界を証明した。
この理論解析はアルゴリズムの洞察を導き、無限のデータを持つ場合でも正規化とラベルのシャープ化が不可欠であることを強調し、より小さなワッサーシュタイン無限距離のシフトに対して自己学習が特にうまく働くことを示唆している。
論文 参考訳(メタデータ) (2020-02-26T08:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。