論文の概要: Task-agnostic Continual Hippocampus Segmentation for Smooth Population
Shifts
- arxiv url: http://arxiv.org/abs/2208.03206v1
- Date: Fri, 5 Aug 2022 14:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:22:29.646096
- Title: Task-agnostic Continual Hippocampus Segmentation for Smooth Population
Shifts
- Title(参考訳): Smooth Population Shifts に対するタスク非依存型連続海馬セグメンテーション
- Authors: Camila Gonzalez, Amin Ranem, Ahmed Othman and Anirban Mukhopadhyay
- Abstract要約: 本研究では,段階的な人口移動を伴うタスク非依存環境において,そのような手法がどのように機能するかを考察する。
本稿では,分布外検出と連続学習技術を組み合わせた総合的解法ODExを提案する。
- 参考スコア(独自算出の注目度): 1.069533806668766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most continual learning methods are validated in settings where task
boundaries are clearly defined and task identity information is available
during training and testing. We explore how such methods perform in a
task-agnostic setting that more closely resembles dynamic clinical environments
with gradual population shifts. We propose ODEx, a holistic solution that
combines out-of-distribution detection with continual learning techniques.
Validation on two scenarios of hippocampus segmentation shows that our proposed
method reliably maintains performance on earlier tasks without losing
plasticity.
- Abstract(参考訳): ほとんどの連続的な学習方法は、タスク境界が明確に定義され、トレーニングやテスト中にタスク識別情報が利用できる設定で検証される。
段階的な人口移動を伴う動的臨床環境に類似したタスク非依存的な環境で,そのような手法がどのように機能するかを考察する。
本稿では,分布外検出と連続学習技術を組み合わせた総合解ODExを提案する。
海馬セグメンテーションの2つのシナリオの検証により,提案手法は可塑性を損なうことなく,早期の作業において確実に性能を維持できることを示した。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - On the Convergence of Continual Learning with Adaptive Methods [4.351356718501137]
適応型非連続学習法(NCCL)を提案する。
提案手法は,複数の画像分類タスクに対する継続学習既存手法の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2024-04-08T14:28:27Z) - Clustering-based Domain-Incremental Learning [4.835091081509403]
連続学習における鍵となる課題は、いわゆる「破滅的な忘れ問題」である。
動的に更新されたサンプルや勾配の有限プールに対するオンラインクラスタリングに基づくアプローチを提案する。
提案手法の有効性と将来性を示す。
論文 参考訳(メタデータ) (2023-09-21T13:49:05Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Algorithm Design for Online Meta-Learning with Task Boundary Detection [57.07616532337541]
非定常環境におけるタスクに依存しないオンラインメタ学習のための新しいアルゴリズムを提案する。
まず,タスクスイッチと分散シフトの簡易かつ効果的な2つの検出機構を提案する。
軽度条件下では,線形タスク平均的後悔がアルゴリズムに対して達成可能であることを示す。
論文 参考訳(メタデータ) (2023-02-02T04:02:49Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.85241791994562]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - On Steering Multi-Annotations per Sample for Multi-Task Learning [79.98259057711044]
マルチタスク学習の研究はコミュニティから大きな注目を集めている。
目覚ましい進歩にもかかわらず、異なるタスクを同時に学習するという課題はまだ検討されていない。
従来の研究は、異なるタスクから勾配を修正しようとするが、これらの手法はタスク間の関係の主観的な仮定を与え、修正された勾配はより正確でないかもしれない。
本稿では,タスク割り当てアプローチによってこの問題に対処する機構であるタスク割当(STA)を紹介し,各サンプルをランダムにタスクのサブセットに割り当てる。
さらなる進展のために、我々は全てのタスクを反復的に割り当てるためにInterleaved Task Allocation(ISTA)を提案する。
論文 参考訳(メタデータ) (2022-03-06T11:57:18Z) - Continual Active Learning Using Pseudo-Domains for Limited Labelling
Resources and Changing Acquisition Characteristics [2.6105699925188257]
臨床ルーチン中の医療画像における機械学習は、スキャナープロトコル、ハードウェア、ポリシーの変更によって損なわれる。
マルチスキャナ環境下で,医療画像のストリーム上で動作する連続的な能動学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T13:11:49Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Task-Agnostic Online Reinforcement Learning with an Infinite Mixture of
Gaussian Processes [25.513074215377696]
本稿では,連続的なオンラインモデルに基づく強化学習手法を提案する。
未知のタスク境界を持つタスク非依存の問題を解決するためには、事前トレーニングを必要としない。
実験では,本手法は非定常タスクにおける代替手法よりも優れている。
論文 参考訳(メタデータ) (2020-06-19T23:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。