論文の概要: Understanding Continual Learning Settings with Data Distribution Drift
Analysis
- arxiv url: http://arxiv.org/abs/2104.01678v1
- Date: Sun, 4 Apr 2021 19:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 02:53:19.291522
- Title: Understanding Continual Learning Settings with Data Distribution Drift
Analysis
- Title(参考訳): データ分散ドリフト分析による連続学習環境の理解
- Authors: Timoth\'ee Lesort, Massimo Caccia, Irina Rish
- Abstract要約: 継続的学習は、機械学習の急速に成長する領域として現れた。
データ分散ドリフトは学習プロセスに干渉し、以前に学習した知識を消去する。
- 参考スコア(独自算出の注目度): 10.313901879812246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical machine learning algorithms often assume that the data are drawn
i.i.d. from a stationary probability distribution. Recently, continual learning
emerged as a rapidly growing area of machine learning where this assumption is
relaxed, namely, where the data distribution is non-stationary, i.e., changes
over time. However, data distribution drifts may interfere with the learning
process and erase previously learned knowledge; thus, continual learning
algorithms must include specialized mechanisms to deal with such distribution
drifts. A distribution drift may change the class labels distribution, the
input distribution, or both. Moreover, distribution drifts might be abrupt or
gradual. In this paper, we aim to identify and categorize different types of
data distribution drifts and potential assumptions about them, to better
characterize various continual-learning scenarios. Moreover, we propose to use
the distribution drift framework to provide more precise definitions of several
terms commonly used in the continual learning field.
- Abstract(参考訳): 古典的な機械学習アルゴリズムは、データが描画されたと仮定することが多い。
定常的な確率分布から
近年、継続学習は、この仮定が緩和される機械学習の急速に成長する領域として現れ、データ分布が非定常的、すなわち時間とともに変化する。
しかし、データの分散ドリフトは学習プロセスに干渉し、以前に学習した知識を消去する可能性があるため、連続的な学習アルゴリズムはそのような分散ドリフトを扱うための特別なメカニズムを含む必要がある。
分布ドリフトは、クラスラベルの分布、入力分布、またはその両方を変更する。
さらに、分布ドリフトは突然あるいは徐々に変化する可能性がある。
本稿では,データ分布のドリフトと潜在的な仮定を識別し,分類し,連続的な学習シナリオをよりよく特徴付けることを目的とする。
さらに, 分散ドリフトフレームワークを用いて, 連続学習分野において一般的に用いられる複数の用語をより正確に定義することを提案する。
関連論文リスト
- Continual Learning of Nonlinear Independent Representations [17.65617189829692]
分布数の増加に伴い,モデル識別可能性がサブスペースレベルからコンポーネントワイドレベルに向上することを示す。
本手法は,複数のオフライン分布に対して共同で学習した非線形ICA法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-08-11T14:33:37Z) - Which distribution were you sampled from? Towards a more tangible conception of data [7.09435109588801]
機械学習の標準フレームワークは必ずしも良いモデルではない、と私たちは主張する。
抽象分布よりも有限集団に着目した代替フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-24T16:17:14Z) - Harnessing the Power of Vicinity-Informed Analysis for Classification under Covariate Shift [9.530897053573186]
転送学習は、ソース分布からのデータを活用することにより、ターゲット分布の予測精度を向上させる。
本稿では,周辺情報,すなわちデータポイントの局所的構造を利用した新しい異種性尺度を提案する。
提案手法を用いて過大な誤差を特徴付けるとともに,従来の手法と比較して高速あるいは競合的な収束率を示す。
論文 参考訳(メタデータ) (2024-05-27T07:55:27Z) - Supervised Algorithmic Fairness in Distribution Shifts: A Survey [17.826312801085052]
現実世界のアプリケーションでは、機械学習モデルは特定のデータセットでトレーニングされることが多いが、データ分散がシフトする可能性のある環境にデプロイされる。
この変化は、人種や性別などのセンシティブな属性によって特徴づけられる特定のグループに不公平な予測をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-02-02T11:26:18Z) - Wild-Time: A Benchmark of in-the-Wild Distribution Shift over Time [69.77704012415845]
時間的シフトは、現実世界にデプロイされた機械学習モデルのパフォーマンスを著しく低下させる可能性がある。
ドメイン一般化、連続学習、自己教師付き学習、アンサンブル学習の手法を含む13の先行手法をベンチマークする。
いずれの評価方略も,分布外データから分布外データへの平均的な性能低下を観察する。
論文 参考訳(メタデータ) (2022-11-25T17:07:53Z) - Change Detection for Local Explainability in Evolving Data Streams [72.4816340552763]
局所的特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
ローカルな属性が、ストリーミングやオンラインアプリケーションのような、現実的で絶えず変化する設定でどのように振る舞うかは、しばしば不明である。
局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
論文 参考訳(メタデータ) (2022-09-06T18:38:34Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。