論文の概要: Learning After Model Deployment
- arxiv url: http://arxiv.org/abs/2510.17160v1
- Date: Mon, 20 Oct 2025 04:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.309841
- Title: Learning After Model Deployment
- Title(参考訳): モデルデプロイ後の学習
- Authors: Derda Kaymak, Gyuhak Kim, Tomoya Kaichi, Tatsuya Konishi, Bing Liu,
- Abstract要約: 私たちはこのパラダイムをモデル展開後の自律学習(ALMD)と呼んでいる。
ALMDでは、新しいサンプルの検出は動的であり、従来のアウト・オブ・ディストリビューション(OOD)検出とは異なる。
そこで本研究では,新しいクラスを動的に検出し,段階的に学習するPLDAを提案する。
- 参考スコア(独自算出の注目度): 9.611442308478557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In classic supervised learning, once a model is deployed in an application, it is fixed. No updates will be made to it during the application. This is inappropriate for many dynamic and open environments, where unexpected samples from unseen classes may appear. In such an environment, the model should be able to detect these novel samples from unseen classes and learn them after they are labeled. We call this paradigm Autonomous Learning after Model Deployment (ALMD). The learning here is continuous and involves no human engineers. Labeling in this scenario is performed by human co-workers or other knowledgeable agents, which is similar to what humans do when they encounter an unfamiliar object and ask another person for its name. In ALMD, the detection of novel samples is dynamic and differs from traditional out-of-distribution (OOD) detection in that the set of in-distribution (ID) classes expands as new classes are learned during application, whereas ID classes is fixed in traditional OOD detection. Learning is also different from classic supervised learning because in ALMD, we learn the encountered new classes immediately and incrementally. It is difficult to retrain the model from scratch using all the past data from the ID classes and the novel samples from newly discovered classes, as this would be resource- and time-consuming. Apart from these two challenges, ALMD faces the data scarcity issue because instances of new classes often appear sporadically in real-life applications. To address these issues, we propose a novel method, PLDA, which performs dynamic OOD detection and incremental learning of new classes on the fly. Empirical evaluations will demonstrate the effectiveness of PLDA.
- Abstract(参考訳): 古典的な教師あり学習では、一度モデルがアプリケーションにデプロイされると、それは修正される。
アプリケーションの更新は行われない。
これは、目に見えないクラスの予期せぬサンプルが現れる多くの動的でオープンな環境にとって不適切である。
このような環境では、モデルは目に見えないクラスからこれらの新しいサンプルを検出し、ラベル付けされた後にそれらを学ぶことができるべきである。
我々はこのパラダイムをモデル展開後の自律学習(ALMD)と呼んでいる。
ここでの学習は継続的であり、人間のエンジニアを伴わない。
このシナリオのラベル付けは、人間の同僚や他の知識のあるエージェントによって行われる。
ALMDでは、新しいサンプルの検出は動的であり、従来のオフ・オブ・ディストリビューション(OOD)検出とは違い、アプリケーション中に新しいクラスが学習されるにつれて、IDクラスが拡張され、従来のOOD検出ではIDクラスが固定される。
古典的な教師あり学習とは異なるのは、ALMDでは、遭遇した新しいクラスを即時・漸進的に学習するためである。
IDクラスからの過去のデータと新しく発見されたクラスの新しいサンプルを使って、スクラッチからモデルを再トレーニングすることは困難である。
これら2つの課題とは別に、ALMDはデータ不足の問題に直面している。
これらの問題に対処するため,我々は,動的OOD検出と新たなクラスをその場で逐次学習するPLDAを提案する。
PLDAの有効性を実証的に評価する。
関連論文リスト
- BSDP: Brain-inspired Streaming Dual-level Perturbations for Online Open
World Object Detection [31.467501311528498]
私たちは、深層学習モデルを、人々の学習方法をシミュレートすることを目指しています。
既存のOWODアプローチは未知のカテゴリの同定に注意を払う一方で、漸進的な学習も非常に重要である。
本稿では,古い知識を忘れることなく,新しい知識を学習しやすくするために,古いサンプルの二重レベル情報を新しいサンプルの摂動として捉えた。
論文 参考訳(メタデータ) (2024-03-05T04:00:50Z) - PANDAS: Prototype-based Novel Class Discovery and Detection [28.615935639878593]
我々は,一組のベースクラスに対して訓練された検出器を拡張して,新しいクラスの存在を検出する方法を検討する。
本研究では,新しいクラス発見・検出手法であるPANDASを提案する。
VOC 2012 と COCO-to-LVIS ベンチマークにおける PANDAS の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2024-02-27T11:23:39Z) - DualTeacher: Bridging Coexistence of Unlabelled Classes for
Semi-supervised Incremental Object Detection [53.8061502411777]
現実世界のアプリケーションでは、オブジェクト検出器は、しばしば新しいクラスのオブジェクトインスタンスに遭遇し、それらを効果的に適合させる必要がある。
以前の作業では、この重要な問題をインクリメンタルオブジェクト検出(IOD)として定式化しており、新しいクラスのオブジェクトインスタンスがインクリメンタルデータで完全に注釈付けされていると仮定している。
我々は、より現実的な半教師付きIOD (SSIOD) について考察する。オブジェクト検出器は、ラベル付きデータと大量の非ラベル付きデータから、段階的に新しいクラスを学習する必要がある。
論文 参考訳(メタデータ) (2023-12-13T10:46:14Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Multi-Granularity Regularized Re-Balancing for Class Incremental
Learning [32.52884416761171]
ディープラーニングモデルは、新しいタスクを学ぶときに破滅的な忘れに苦しむ。
古いクラスと新しいクラスのデータの不均衡は、モデルのパフォーマンスが低下する鍵となる問題である。
この問題を解決するために,仮定に依存しないマルチグラニュラリティ正規化再バランシング法を提案する。
論文 参考訳(メタデータ) (2022-06-30T11:04:51Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。