論文の概要: More From Less: Self-Supervised Knowledge Distillation for Routine
Histopathology Data
- arxiv url: http://arxiv.org/abs/2303.10656v2
- Date: Fri, 21 Jul 2023 17:15:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 16:08:42.021981
- Title: More From Less: Self-Supervised Knowledge Distillation for Routine
Histopathology Data
- Title(参考訳): More from Less: Self-Supervised Knowledge Distillation for Routine Histopathology data
- Authors: Lucas Farndale, Robert Insall and Ke Yuan
- Abstract要約: 本研究では,情報深度データから情報疎度データのみを必要とするモデルへの学習中に知識を消耗させることが可能であることを示す。
これにより、情報スパースデータの下流分類精度が向上し、完全に教師されたベースラインに匹敵する。
このアプローチは、日常的な画像のみを必要とするモデルの設計を可能にするが、最先端のデータからの洞察を含んでおり、利用可能なリソースをより活用することができる。
- 参考スコア(独自算出の注目度): 3.93181912653522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical imaging technologies are generating increasingly large amounts of
high-quality, information-dense data. Despite the progress, practical use of
advanced imaging technologies for research and diagnosis remains limited by
cost and availability, so information-sparse data such as H&E stains are relied
on in practice. The study of diseased tissue requires methods which can
leverage these information-dense data to extract more value from routine,
information-sparse data. Using self-supervised deep learning, we demonstrate
that it is possible to distil knowledge during training from information-dense
data into models which only require information-sparse data for inference. This
improves downstream classification accuracy on information-sparse data, making
it comparable with the fully-supervised baseline. We find substantial effects
on the learned representations, and this training process identifies subtle
features which otherwise go undetected. This approach enables the design of
models which require only routine images, but contain insights from
state-of-the-art data, allowing better use of the available resources.
- Abstract(参考訳): 医療画像技術は、ますます大量の高品質な情報密度データを生み出している。
進歩にもかかわらず、研究・診断に先進的な画像技術の実用化は、コストと可用性によって制限されているため、H&E染色などの情報分散データは実際は頼っている。
疾患組織の研究には、これらの情報密度データを利用して、日常的な情報分離データからより多くの価値を抽出する手法が必要である。
自己教師付き深層学習を用いて,学習中の知識を情報伝達データから推論のための情報スパースデータのみを必要とするモデルに分化できることを実証する。
これにより、情報スパースデータの下流分類精度が向上し、完全な教師付きベースラインに匹敵する。
学習した表現にかなりの効果があり、この学習プロセスは検出されない微妙な特徴を識別する。
このアプローチは、ルーチンイメージのみを必要とするが、最先端のデータからの洞察を含むモデルの設計を可能にする。
関連論文リスト
- Local-to-Global Self-Supervised Representation Learning for Diabetic Retinopathy Grading [0.0]
本研究では,自己指導型学習と知識蒸留を用いた新しいハイブリッド学習モデルを提案する。
我々のアルゴリズムでは、自己教師型学習および知識蒸留モデルの中で初めて、テストデータセットがトレーニングデータセットよりも50%大きい。
類似の最先端モデルと比較すると,より高精度で効率的な表現空間が得られた。
論文 参考訳(メタデータ) (2024-10-01T15:19:16Z) - Extracting Training Data from Unconditional Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(AI)の主流モデルとして採用されている。
本研究の目的は,1) 理論解析のための記憶量,2) 情報ラベルとランダムラベルを用いた条件記憶量,3) 記憶量測定のための2つのより良い評価指標を用いて,DPMにおける記憶量の理論的理解を確立することである。
提案手法は,理論解析に基づいて,SIDE (textbfSurrogate condItional Data extract) と呼ばれる新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T16:20:12Z) - Less is more: Ensemble Learning for Retinal Disease Recognition Under
Limited Resources [12.119196313470887]
本稿では,限られた資源で網膜疾患を認識できる新しいアンサンブル学習機構を提案する。
このメカニズムは、複数の事前訓練されたモデルからの洞察を活用し、その知識を網膜CT画像に転送し適応させる。
論文 参考訳(メタデータ) (2024-02-15T06:58:25Z) - Rapid Training Data Creation by Synthesizing Medical Images for
Classification and Localization [10.506584969668792]
本稿では,この問題を解決するために,任意のディープニューラルネットワークをトレーニングするための実データ変換手法を提案する。
弱教師付きモデルでは,生成したデータを用いて局所化精度が著しく向上することを示す。
後者のモデルでは、生成した画像でトレーニングされた精度は、完全に注釈付けされた実画像でトレーニングされた精度と密接に一致している。
論文 参考訳(メタデータ) (2023-08-09T03:49:12Z) - Diffusion-based Data Augmentation for Skin Disease Classification:
Impact Across Original Medical Datasets to Fully Synthetic Images [2.5075774184834803]
深層ニューラルネットワークは、過度な適合を避けるために、依然として大量のトレーニングデータに依存している。
医療のような現実世界のアプリケーションのためのラベル付きトレーニングデータには制限があり、アクセスが困難である。
我々は,我々の大脳皮質皮膚疾患データセットのトレーニングサンプルを増強する上で,テキスト・画像拡散確率モデルの成功を生かした。
論文 参考訳(メタデータ) (2023-01-12T04:22:23Z) - Knowledge-Guided Data-Centric AI in Healthcare: Progress, Shortcomings,
and Future Directions [7.673853485227739]
ディープラーニングは、特定の概念や意味の幅広い例を学ぶことができる。
医学において、特定の疾患に関する多様なトレーニングデータを持つことは、疾患を正確に予測できるモデルの開発につながる可能性がある。
潜在的な利点にもかかわらず、高品質な注釈付きデータが欠如しているため、画像ベースの診断には大きな進歩はなかった。
この記事では、データ表現の質を改善するためにデータ中心のアプローチを使うことの重要性を強調します。
論文 参考訳(メタデータ) (2022-12-27T19:35:14Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Data Consistent CT Reconstruction from Insufficient Data with Learned
Prior Images [70.13735569016752]
偽陰性病変と偽陽性病変を呈示し,CT画像再構成における深層学習の堅牢性について検討した。
本稿では,圧縮センシングと深層学習の利点を組み合わせた画像品質向上のためのデータ一貫性再構築手法を提案する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
論文 参考訳(メタデータ) (2020-05-20T13:30:49Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。