論文の概要: Out-of-Distribution Detection for Continual Learning: Design Principles and Benchmarking
- arxiv url: http://arxiv.org/abs/2512.19725v1
- Date: Tue, 16 Dec 2025 22:50:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.597555
- Title: Out-of-Distribution Detection for Continual Learning: Design Principles and Benchmarking
- Title(参考訳): 連続学習におけるアウト・オブ・ディストリビューション検出:設計原理とベンチマーク
- Authors: Srishti Gupta, Riccardo Balia, Daniele Angioni, Fabio Brau, Maura Pintor, Ambra Demontis, Alessandro Sebastian, Salvatore Mario Carta, Fabio Roli, Battista Biggio,
- Abstract要約: 近年、幅広い分野にわたる機械学習モデルの開発が著しい進展を見せている。
これらのモデルは、常に変化する現実世界のシナリオにデプロイされるため、時間とともに信頼性と適応性を維持する能力はますます重要になる。
- 参考スコア(独自算出の注目度): 44.75780122845172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed significant progress in the development of machine learning models across a wide range of fields, fueled by increased computational resources, large-scale datasets, and the rise of deep learning architectures. From malware detection to enabling autonomous navigation, modern machine learning systems have demonstrated remarkable capabilities. However, as these models are deployed in ever-changing real-world scenarios, their ability to remain reliable and adaptive over time becomes increasingly important. For example, in the real world, new malware families are continuously developed, whereas autonomous driving cars are employed in many different cities and weather conditions. Models trained in fixed settings can not respond effectively to novel conditions encountered post-deployment. In fact, most machine learning models are still developed under the assumption that training and test data are independent and identically distributed (i.i.d.), i.e., sampled from the same underlying (unknown) distribution. While this assumption simplifies model development and evaluation, it does not hold in many real-world applications, where data changes over time and unexpected inputs frequently occur. Retraining models from scratch whenever new data appears is computationally expensive, time-consuming, and impractical in resource-constrained environments. These limitations underscore the need for Continual Learning (CL), which enables models to incrementally learn from evolving data streams without forgetting past knowledge, and Out-of-Distribution (OOD) detection, which allows systems to identify and respond to novel or anomalous inputs. Jointly addressing both challenges is critical to developing robust, efficient, and adaptive AI systems.
- Abstract(参考訳): 近年、計算資源の増加、大規模データセットの増大、ディープラーニングアーキテクチャの台頭など、幅広い分野にわたる機械学習モデルの開発が著しい進展を見せている。
マルウェア検出から自律的なナビゲーションの実現に至るまで、現代の機械学習システムは目覚ましい能力を示してきた。
しかし、これらのモデルが常に変化する現実のシナリオにデプロイされるにつれて、信頼性と時間とともに適応性を維持する能力はますます重要になる。
例えば、現実世界では、新しいマルウェアファミリーが継続的に開発され、自動運転車は多くの異なる都市や気象条件で採用されている。
固定環境で訓練されたモデルは、展開後の新しい状況に効果的に対応できない。
実際、ほとんどの機械学習モデルは、トレーニングとテストデータは独立しており、同じ(未知の)分布からサンプリングされた同一の(d)分散である、という仮定の下で開発されている。
この仮定は、モデルの開発と評価を単純化するが、時間とともにデータが変化し、予期せぬ入力が頻繁に発生するような、多くの現実世界のアプリケーションには当てはまらない。
新しいデータが現れるたびに、スクラッチからモデルをリトレーニングすることは、計算コストが高く、時間がかかり、リソースに制約のある環境では実用的ではない。
これらの制限は、モデルが過去の知識を忘れずに進化するデータストリームから漸進的に学習することを可能にする継続学習(CL)と、システムが新しい入力や異常な入力を識別し、応答できるようにするOOD(Out-of-Distribution)検出の必要性を浮き彫りにしている。
両方の課題に共同で対処することは、堅牢で効率的で適応的なAIシステムを開発する上で重要である。
関連論文リスト
- Towards Continually Learning Application Performance Models [1.2278517240988065]
機械学習ベースのパフォーマンスモデルは、重要なジョブスケジューリングとアプリケーションの最適化決定を構築するために、ますます使われています。
伝統的に、これらのモデルは、より多くのサンプルが時間とともに収集されるため、データ分布が変化しないと仮定する。
本研究では,分布のドリフトを考慮した継続的な学習性能モデルを構築し,破滅的な忘れを軽減し,一般化性を向上させる。
論文 参考訳(メタデータ) (2023-10-25T20:48:46Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [65.57123249246358]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Deep Transfer Learning for Automatic Speech Recognition: Towards Better
Generalization [3.6393183544320236]
深層学習(DL)における音声認識の課題
大規模なトレーニングデータセットと高い計算とストレージリソースが必要です。
ディープトランスファーラーニング(DTL)はこれらの問題を克服するために導入された。
論文 参考訳(メタデータ) (2023-04-27T21:08:05Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。