論文の概要: Class-Incremental Learning of Plant and Disease Detection: Growing
Branches with Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2304.06619v1
- Date: Thu, 13 Apr 2023 15:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 13:59:40.938394
- Title: Class-Incremental Learning of Plant and Disease Detection: Growing
Branches with Knowledge Distillation
- Title(参考訳): 植物・疾患検出のクラスインクリメンタル学習:知識蒸留による枝の育成
- Authors: Mathieu Pag\'e Fortin
- Abstract要約: 本稿では,農業利用におけるクラスインクリメンタルオブジェクト検出の問題点について検討する。
より現実的でダイナミックなシナリオをシミュレートして、時間とともに新しいカテゴリを含むように、2つのパブリックデータセットを適用します。
異なる形態の知識蒸留を利用して破滅的忘れを緩和する3つのクラス増分学習法を比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the problem of class-incremental object detection for
agricultural applications where a model needs to learn new plant species and
diseases incrementally without forgetting the previously learned ones. We adapt
two public datasets to include new categories over time, simulating a more
realistic and dynamic scenario. We then compare three class-incremental
learning methods that leverage different forms of knowledge distillation to
mitigate catastrophic forgetting. Our experiments show that all three methods
suffer from catastrophic forgetting, but the recent Dynamic Y-KD approach,
which additionally uses a dynamic architecture that grows new branches to learn
new tasks, outperforms ILOD and Faster-ILOD in most scenarios both on new and
old classes.
These results highlight the challenges and opportunities of continual object
detection for agricultural applications. In particular, the large intra-class
and small inter-class variability that is typical of plant images exacerbate
the difficulty of learning new categories without interfering with previous
knowledge. We publicly release our code to encourage future work.
- Abstract(参考訳): 本稿では,新たな植物種や疾患を段階的に学習する必要のある農業分野におけるクラスインクリメンタルオブジェクト検出の課題について検討する。
より現実的でダイナミックなシナリオをシミュレートして、時間とともに新しいカテゴリを含むように、2つのパブリックデータセットを適用します。
次に,異なる形態の知識蒸留を利用して破滅的忘れを緩和する3つのクラス増分学習手法を比較した。
しかし最近の動的Y-KDアプローチでは、新しいタスクを学習するために新しいブランチを成長させ、新しいクラスと古いクラスの両方でほとんどのシナリオでILODとFaster-ILODを上回っている。
これらの結果は農業用途における連続物体検出の課題と機会を浮き彫りにしている。
特に、植物画像の典型的な大きなクラス内および小さなクラス間変動は、以前の知識に干渉することなく新しいカテゴリを学ぶことの難しさを悪化させる。
私たちは将来の作業を奨励するためにコードを公にリリースします。
関連論文リスト
- Leveraging Old Knowledge to Continually Learn New Classes in Medical
Images [16.730335437094592]
我々は、破滅的なことを忘れずに新しいクラスを学ぶために、いかに古い知識を活用できるかに焦点を当てる。
我々のソリューションは、最先端のベースラインよりも、クラスの正確さと忘れやすさにおいて優れたパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-03-24T02:10:53Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Static-Dynamic Co-Teaching for Class-Incremental 3D Object Detection [71.18882803642526]
ディープラーニングアプローチは、3Dオブジェクト検出タスクにおいて顕著なパフォーマンスを示している。
古いデータを再考することなく、新しいクラスを漸進的に学習するときに、破滅的なパフォーマンス低下に悩まされる。
この「破滅的な忘れ物」現象は、現実世界のシナリオにおける3Dオブジェクト検出アプローチの展開を妨げる。
SDCoTは,新しい静的なコティーチング手法である。
論文 参考訳(メタデータ) (2021-12-14T09:03:41Z) - Discriminative Distillation to Reduce Class Confusion in Continual
Learning [57.715862676788156]
クラス混乱は、連続学習における分類性能の低下に寄与する。
本稿では,クラス間の識別的特徴を適切に学習する上で,識別的蒸留戦略を提案する。
論文 参考訳(メタデータ) (2021-08-11T12:46:43Z) - Class-incremental learning: survey and performance evaluation on image
classification [38.27344435075399]
増分学習は、新しいデータの到着時にスクラッチから再トレーニングする必要をなくし、効率的なリソース使用を可能にする。
漸進的な学習の最大の課題は破滅的な忘れことであり、これは新しいタスクを学習した後、以前に学習したタスクのパフォーマンスが急落したことを指す。
近年,学習者がタスクIDを使わずに,過去のタスクで見られた全てのクラス間での推論時間において,学習者が識別しなければならないクラス増分学習へのシフトが見られた。
論文 参考訳(メタデータ) (2020-10-28T23:28:15Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。