論文の概要: Online unsupervised Learning for domain shift in COVID-19 CT scan
datasets
- arxiv url: http://arxiv.org/abs/2108.02002v1
- Date: Sat, 31 Jul 2021 00:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 02:33:14.948092
- Title: Online unsupervised Learning for domain shift in COVID-19 CT scan
datasets
- Title(参考訳): 新型コロナウイルスCTスキャンデータセットにおけるドメインシフトのためのオンライン教師なし学習
- Authors: Nicolas Ewen and Naimul Khan
- Abstract要約: オンライン教師なし学習は、受信データにドメインシフトがある状況に対処するために提案されている。
本研究の目的は、オンラインの教師なし学習が、新型コロナウイルスのCTスキャン分類モデルを少しのドメインシフトに適応させるのに役立つかどうかを確かめることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks often require large amounts of expert annotated data to
train. When changes are made in the process of medical imaging, trained
networks may not perform as well, and obtaining large amounts of expert
annotations for each change in the imaging process can be time consuming and
expensive. Online unsupervised learning is a method that has been proposed to
deal with situations where there is a domain shift in incoming data, and a lack
of annotations. The aim of this study is to see whether online unsupervised
learning can help COVID-19 CT scan classification models adjust to slight
domain shifts, when there are no annotations available for the new data. A
total of six experiments are performed using three test datasets with differing
amounts of domain shift. These experiments compare the performance of the
online unsupervised learning strategy to a baseline, as well as comparing how
the strategy performs on different domain shifts. Code for online unsupervised
learning can be found at this link:
https://github.com/Mewtwo/online-unsupervised-learning
- Abstract(参考訳): ニューラルネットワークは、トレーニングに大量の専門家アノテートデータを必要とすることが多い。
医用画像のプロセスで変更が行われると、トレーニングされたネットワークも同じように動作せず、画像のプロセスごとに大量の専門家アノテーションを取得するのに時間がかかり、コストがかかる。
オンライン教師なし学習は、入力データにドメインシフトがあり、アノテーションが欠如している状況に対処するために提案された手法である。
本研究の目的は、オンラインの教師なし学習が、新しいデータにアノテーションがない場合に、新型コロナウイルスのCTスキャン分類モデルが少しのドメインシフトに適応するのに役立つかどうかを調べることである。
合計6つの実験が、異なる量のドメインシフトを持つ3つのテストデータセットを用いて行われる。
これらの実験は、オンラインの教師なし学習戦略のパフォーマンスをベースラインと比較し、異なるドメインシフトにおける戦略のパフォーマンスを比較した。
オンライン教師なし学習のコードは、このリンクで見ることができる。
関連論文リスト
- Corrective Machine Unlearning [22.342035149807923]
我々は、未知の操作が学習モデルに与える影響を緩和する問題として、矯正機械学習を定式化する。
削除セットを使わずにスクラッチから再学習するなど、既存の未学習手法の多くは、有効な修正未学習のために、操作されたデータの大部分を識別する必要がある。
選択的シナプス減衰法(Selective Synaptic Dampening)は, 操作したサンプルのごく一部で, 有害な効果を学習することなく, 限られた成功を達成している。
論文 参考訳(メタデータ) (2024-02-21T18:54:37Z) - The Generalization Gap in Offline Reinforcement Learning [26.583205544712403]
オフライン学習アルゴリズムは、オンライン学習アルゴリズムよりも、新しい環境でパフォーマンスが悪くなります。
行動クローニングは強力なベースラインであり、最先端のオフラインRLおよびシーケンスモデリングアプローチより優れている。
論文 参考訳(メタデータ) (2023-12-10T03:40:52Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Unsupervised Embedding Quality Evaluation [6.72542623686684]
SSLモデルは、他のドメインに転送された時に正常に動作するかどうか、しばしば不明である。
安定した方法でデータを線形に分離することがいかに容易か、定量化できますか?
本稿では,自己教師付き学習における高次元幾何学構造理解の最近の進歩に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T01:06:44Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Training Deep Networks from Zero to Hero: avoiding pitfalls and going
beyond [59.94347858883343]
このチュートリアルでは、基本的なステップと、モデルを改善するためのより最近のオプションを取り上げている。
これは特に、課題のデータセットほど準備が不十分なデータセットで有用である。
論文 参考訳(メタデータ) (2021-09-06T21:31:42Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Learning Invariant Representations across Domains and Tasks [81.30046935430791]
本稿では,この教師なしタスク転送問題を解決するための新しいタスク適応ネットワーク(tan)を提案する。
ドメイン・アドバーサル・トレーニングによる伝達可能な機能を学習することに加えて、学習から学習への戦略を用いてタスクの意味を適応させる新しいタスク・セマンティクス・アダプタを提案する。
TANは最近の強いベースラインに比べてリコールとF1スコアを5.0%と7.8%大きく向上させた。
論文 参考訳(メタデータ) (2021-03-03T11:18:43Z) - Towards Continual, Online, Unsupervised Depth [4.9342793303029975]
ニューラルネットワークがデプロイ中にトレーニングするオンライン適応は、教師なし学習によって便利なソリューションを提供する。
この作業は、入力がオンラインで時間的に関連付けられており、トレーニングは完全に教師なしである、実用的なオンライン適応を扱う。
タスク境界のない正規化とリプレイに基づく手法は、オンラインデータに適応しながら破滅的な忘れ込みを避けるために提案される。
論文 参考訳(メタデータ) (2021-02-28T01:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。