論文の概要: VET-DINO: Learning Anatomical Understanding Through Multi-View Distillation in Veterinary Imaging
- arxiv url: http://arxiv.org/abs/2505.15248v1
- Date: Wed, 21 May 2025 08:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.302386
- Title: VET-DINO: Learning Anatomical Understanding Through Multi-View Distillation in Veterinary Imaging
- Title(参考訳): VET-DINO : 静脈画像における多視点蒸留による解剖学的理解
- Authors: Andre Dourson, Kylie Taylor, Xiaoli Qiao, Michael Fitzke,
- Abstract要約: VET-DINOは、同じ研究から複数の標準化されたビューの可用性を活用するフレームワークである。
我々は,668,000犬種調査から得られた500万個の獣医学的放射線画像のデータセットに対するアプローチを実証した。
実際の多視点対からの学習は、純粋に合成オーグメンテーションよりも解剖学的理解が優れていることを示す。
- 参考スコア(独自算出の注目度): 0.17999333451993946
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervised learning has emerged as a powerful paradigm for training deep neural networks, particularly in medical imaging where labeled data is scarce. While current approaches typically rely on synthetic augmentations of single images, we propose VET-DINO, a framework that leverages a unique characteristic of medical imaging: the availability of multiple standardized views from the same study. Using a series of clinical veterinary radiographs from the same patient study, we enable models to learn view-invariant anatomical structures and develop an implied 3D understanding from 2D projections. We demonstrate our approach on a dataset of 5 million veterinary radiographs from 668,000 canine studies. Through extensive experimentation, including view synthesis and downstream task performance, we show that learning from real multi-view pairs leads to superior anatomical understanding compared to purely synthetic augmentations. VET-DINO achieves state-of-the-art performance on various veterinary imaging tasks. Our work establishes a new paradigm for self-supervised learning in medical imaging that leverages domain-specific properties rather than merely adapting natural image techniques.
- Abstract(参考訳): ディープニューラルネットワークをトレーニングするための強力なパラダイムとして、特にラベル付きデータが不足している医療画像において、自己教師型学習が登場している。
現在のアプローチは、通常、単一の画像の合成拡張に依存するが、同じ研究から複数の標準化されたビューが利用可能である、医療画像のユニークな特徴を活用するフレームワークであるVET-DINOを提案する。
同じ患者からの一連の臨床獣医学的放射線写真を用いて、ビュー不変の解剖学的構造を学習し、2Dプロジェクションからインプリケートされた3D理解を開発することができる。
我々は,668,000犬種調査から得られた500万個の獣医学的放射線画像のデータセットに対するアプローチを実証した。
ビュー合成とダウンストリームタスク性能を含む広範囲な実験を通して、実際のマルチビューペアからの学習は、純粋に合成オーグメンテーションよりも優れた解剖学的理解をもたらすことを示す。
VET-DINOは、様々な獣医イメージングタスクで最先端のパフォーマンスを達成する。
我々の研究は、自然画像技術にのみ適応するのではなく、ドメイン固有の特性を活用する医療画像における自己教師型学習の新しいパラダイムを確立する。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - BiomedJourney: Counterfactual Biomedical Image Generation by
Instruction-Learning from Multimodal Patient Journeys [99.7082441544384]
本稿では,インストラクション学習によるバイオメディカル画像生成のための新しい手法であるBiomedJourneyを紹介する。
我々は、GPT-4を用いて、対応する画像レポートを処理し、疾患進行の自然言語記述を生成する。
得られた三重項は、反現実的なバイオメディカル画像生成のための潜伏拡散モデルを訓練するために使用される。
論文 参考訳(メタデータ) (2023-10-16T18:59:31Z) - Towards a Visual-Language Foundation Model for Computational Pathology [5.72536252929528]
病理組織学(CONCH)におけるコントラスト学習について紹介する。
CONCHは、様々な組織像、生医学的テキスト、タスクに依存しない事前トレーニングのソースを用いて開発された視覚言語基盤モデルである。
13種類の多様なベンチマークで評価され, 画像分類, セグメンテーション, キャプション, テキスト・ツー・イメージ検索, 画像・テキスト検索における最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-07-24T16:13:43Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Parameter-Efficient Fine-Tuning for Medical Image Analysis: The Missed Opportunity [15.404013190033242]
の応用。
医用画像解析におけるPEFT(Efficient Fine-Tuning)は, 比較的未探索である。
本研究では、画像分類とテキスト・ツー・イメージ生成タスクにおいて、17の異なるPEFTアルゴリズムを評価することにより、このギャップを埋める。
本研究はPEFTの有効性,特に医用画像に共通する低データ領域における有効性を示すものである。
論文 参考訳(メタデータ) (2023-05-14T21:18:18Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。