論文の概要: Self-Supervised ImageNet Representations for In Vivo Confocal Microscopy: Tortuosity Grading without Segmentation Maps
- arxiv url: http://arxiv.org/abs/2603.15269v1
- Date: Mon, 16 Mar 2026 13:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.383052
- Title: Self-Supervised ImageNet Representations for In Vivo Confocal Microscopy: Tortuosity Grading without Segmentation Maps
- Title(参考訳): In Vivo共焦点顕微鏡のための自己スーパービジョン画像ネット表現:分割マップを使わずにTortuosity Grading
- Authors: Kim Ouan, Noémie Moreau, Katarzyna Bozek,
- Abstract要約: 我々は、ImageNetの自己教師付き事前訓練された特徴が、生体共焦点顕微鏡の領域に伝達可能であることを示す。
DINOは最先端の精度(84,25%)と感度(7,97%)で改善する
- 参考スコア(独自算出の注目度): 1.9116784879310027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The tortuosity of corneal nerve fibers are used as indication for different diseases. Current state-of-the-art methods for grading the tortuosity heavily rely on expensive segmentation maps of these nerve fibers. In this paper, we demonstrate that self-supervised pretrained features from ImageNet are transferable to the domain of in vivo confocal microscopy. We show that DINO should not be disregarded as a deep learning model for medical imaging, although it was superseded by two later versions. After careful fine-tuning, DINO improves upon the state-of-the-art in terms of accuracy (84,25%) and sensitivity (77,97%). Our fine-tuned model focuses on the key morphological elements in grading without the use of segmentation maps.
- Abstract(参考訳): 角膜神経線維の靭性は、異なる疾患の徴候として用いられる。
トーチュシティをグレードする現在の最先端の手法は、これらの神経繊維の高価なセグメンテーションマップに大きく依存している。
本稿では,ImageNetの自己教師付き事前訓練された特徴が生体共焦点顕微鏡の領域に伝達可能であることを示す。
我々は,DINOを医療画像の深層学習モデルとして無視すべきでないことを示した。
注意深い微調整の後、DINOは最先端の精度(84,25%)と感度(7,97%)で改善した。
我々の微調整モデルは、分節写像を使わずに階調の鍵となる形態的要素に焦点を当てている。
関連論文リスト
- Histopathological Image Classification with Cell Morphology Aware Deep Neural Networks [11.749248917866915]
本稿では,細胞形態を学習し,多数のがんタイプを同定するために事前訓練した新しいDeepCMorphモデルを提案する。
7175例の8736例の診断スライドから抽出した270K以上の組織パッチからなるPan-Cancer TCGAデータセット上で,本モジュールを事前訓練した。
提案手法は, 82%以上の精度で32種類の癌を検出でき, 従来提案されていたすべてのソリューションを4%以上上回る性能を示した。
論文 参考訳(メタデータ) (2024-07-11T16:03:59Z) - Analysis of the Two-Step Heterogeneous Transfer Learning for Laryngeal Blood Vessel Classification: Issue and Improvement [8.7937485450551]
本研究は喉頭病変分類のための2段階ヘテロジニアストランスファーラーニング(THTL)のパイオニアである。
中間領域は糖尿病網膜症カラー・ファンドス画像,意味的には非同一であるが血管像である。
本稿では、SWFT(Step-Wise Fine-Tuning)と呼ばれるTHTLの微調整戦略を改良し、ResNetモデルに適用する。
論文 参考訳(メタデータ) (2024-02-29T09:52:39Z) - ACAT: Adversarial Counterfactual Attention for Classification and
Detection in Medical Imaging [41.202147558260336]
画像特徴を異なるスケールで変調するソフト空間アテンションマスクを得るために,サリエンシマップを用いたフレームワークを提案する。
ACATは、脳CTスキャンの病変の基準分類精度を71.39%から72.55%に引き上げ、肺CTスキャンの新型コロナウイルス関連所見を67.71%から70.84%に引き上げた。
論文 参考訳(メタデータ) (2023-03-27T17:43:57Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Towards the Localisation of Lesions in Diabetic Retinopathy [2.3204178451683264]
本研究は,4つの最先端ディープラーニングモデルの事前学習重量を用いて,糖尿病網膜症(DR)基底画像の局所化マップを作成し,比較する。
inceptionv3は、テスト分類精度96.07%で最高の性能を達成し、病変を他のモデルよりも良く高速にローカライズする。
論文 参考訳(メタデータ) (2020-12-21T15:39:17Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。