論文の概要: Depth Anything in Medical Images: A Comparative Study
- arxiv url: http://arxiv.org/abs/2401.16600v1
- Date: Mon, 29 Jan 2024 22:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:53:15.947036
- Title: Depth Anything in Medical Images: A Comparative Study
- Title(参考訳): 医用画像における奥行き情報:比較研究
- Authors: John J. Han, Ayberk Acar, Callahan Henry, Jie Ying Wu
- Abstract要約: 本研究は,新たにリリースされたDepth Anything Modelの内視鏡的および腹腔鏡的シーンにおけるゼロショット性能を評価する。
以上の結果から,Depth Anythingのゼロショット能力は非常に優れているが,速度と性能の両面で他のモデルより優れているとは限らない。
- 参考スコア(独自算出の注目度): 0.9217021281095907
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Monocular depth estimation (MDE) is a critical component of many medical
tracking and mapping algorithms, particularly from endoscopic or laparoscopic
video. However, because ground truth depth maps cannot be acquired from real
patient data, supervised learning is not a viable approach to predict depth
maps for medical scenes. Although self-supervised learning for MDE has recently
gained attention, the outputs are difficult to evaluate reliably and each MDE's
generalizability to other patients and anatomies is limited. This work
evaluates the zero-shot performance of the newly released Depth Anything Model
on medical endoscopic and laparoscopic scenes. We compare the accuracy and
inference speeds of Depth Anything with other MDE models trained on general
scenes as well as in-domain models trained on endoscopic data. Our findings
show that although the zero-shot capability of Depth Anything is quite
impressive, it is not necessarily better than other models in both speed and
performance. We hope that this study can spark further research in employing
foundation models for MDE in medical scenes.
- Abstract(参考訳): 単眼深度推定(MDE)は多くの医学的追跡・マッピングアルゴリズムの重要な構成要素であり、特に内視鏡的・腹腔鏡的ビデオからである。
しかし,現実の患者データから基底真理奥行きマップは取得できないため,教師付き学習は医療現場の奥行きマップを予測するための有効な手法ではない。
近年,MDEの自己指導型学習が注目されているが,そのアウトプットを確実に評価することは困難であり,他の患者や解剖学に対するMDEの一般化性は限られている。
本研究は, 内視鏡的, 腹腔鏡的場面で新たにリリースされた depth anything モデルのゼロショット性能を評価する。
奥行きの精度と推定速度を,一般的なシーンでトレーニングされた他のmdeモデルと,内視鏡データでトレーニングされたドメイン内モデルと比較した。
以上の結果から,Depth Anythingのゼロショット能力は非常に優れているが,速度と性能の両面で他のモデルより優れているとは限らない。
この研究が医療現場におけるMDEの基礎モデル導入のさらなる研究に拍車をかけることを願っている。
関連論文リスト
- Surgical Depth Anything: Depth Estimation for Surgical Scenes using Foundation Models [4.740415113160021]
深度推定の最先端基盤モデルであるDepth Anythingは、ぼやけ、出血、反射といった問題に苦慮している。
本稿では,より正確な深度マップの提供を目的として,外科領域に特化してDepth Anythingモデルを微調整する。
論文 参考訳(メタデータ) (2024-10-09T21:06:14Z) - EndoDAC: Efficient Adapting Foundation Model for Self-Supervised Depth Estimation from Any Endoscopic Camera [12.152362025172915]
内視鏡的深度カメラ (EndoDAC) を用いて, 基礎モデルを内視鏡的シーンに適応させる手法を提案する。
具体的には、DV-LoRA(Dynamic Vector-Based Low-Rank Adaptation)を開発し、畳み込みネックブロックを用いる。
当社のフレームワークは,任意のカメラからの単眼手術ビデオのみをトレーニングし,最小限のトレーニングコストを確保できる。
論文 参考訳(メタデータ) (2024-05-14T14:55:15Z) - UniDepth: Universal Monocular Metric Depth Estimation [81.80512457953903]
ドメインをまたいだ単一の画像からメートル法3Dシーンを再構成できる新しいモデルUniDepthを提案する。
我々のモデルは擬似球面出力表現を利用しており、カメラと奥行きの表現を歪めている。
ゼロショット方式における10のデータセットの詳細な評価は、一貫してUniDepthの優れた性能を示している。
論文 参考訳(メタデータ) (2024-03-27T18:06:31Z) - Leveraging Near-Field Lighting for Monocular Depth Estimation from Endoscopy Videos [12.497782583094281]
内視鏡ビデオにおける単眼深度推定は、補助手術やロボット手術により、臓器のより良いカバレッジと様々な健康問題の検出が可能になる。
主流の自然画像深度推定では有望な進歩があったが、内視鏡画像では技術が不十分であった。
本稿では, 内視鏡から放射される光を表面から反射する光学的手がかりを用いて, 単分子深度推定を改善する。
論文 参考訳(メタデータ) (2024-03-26T17:52:23Z) - SM4Depth: Seamless Monocular Metric Depth Estimation across Multiple Cameras and Scenes by One Model [72.0795843450604]
現在のアプローチでは、さまざまなシーンで一貫した精度を維持する上で、課題に直面している。
これらの手法は、何千万、あるいは数千万のデータからなる広範囲なデータセットに依存している。
本稿では室内と屋外の両方でシームレスに機能するSM$4$Depthについて述べる。
論文 参考訳(メタデータ) (2024-03-13T14:08:25Z) - Comparative Analysis of ImageNet Pre-Trained Deep Learning Models and
DINOv2 in Medical Imaging Classification [7.205610366609243]
本稿では,脳MRIデータの3つの臨床的モダリティを用いたグリオーマグレーディングタスクを行った。
我々は、ImageNetやDINOv2をベースとした様々な事前学習深層学習モデルの性能を比較した。
臨床データでは,DINOv2 はImageNet ベースで事前訓練したモデルほど優れていなかった。
論文 参考訳(メタデータ) (2024-02-12T11:49:08Z) - Surgical-DINO: Adapter Learning of Foundation Models for Depth
Estimation in Endoscopic Surgery [12.92291406687467]
内視鏡手術における深度推定のためのDINOv2の低ランク適応であるDINO-DINOと呼ばれる基礎モデルに基づく深度推定法を設計する。
従来の微調整ではなく,手術固有のドメイン知識に適応するため,LoRA層を構築してDINOに統合する。
本モデルは,ダ・ヴィンチXi内視鏡手術から収集したSCAREDのMICCAIチャレンジデータセット上で広範囲に検証されている。
論文 参考訳(メタデータ) (2024-01-11T16:22:42Z) - Med-Flamingo: a Multimodal Medical Few-shot Learner [58.85676013818811]
医療領域に適応したマルチモーダル・数ショット学習者であるMed-Flamingoを提案する。
OpenFlamingo-9Bに基づいて、出版物や教科書からの医療画像テキストデータのペア化とインターリーブ化を継続する。
本研究は,医療用VQA(ジェネレーティブ医療用VQA)の最初の人間評価である。
論文 参考訳(メタデータ) (2023-07-27T20:36:02Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - Self-Supervised Human Depth Estimation from Monocular Videos [99.39414134919117]
人間の深度を推定する従来の方法は、しばしば地上の真実の深度データを用いた教師あり訓練を必要とする。
本稿では,YouTubeビデオの奥行きを知ることなく,自己指導型手法を提案する。
実験により,本手法はより一般化され,野生のデータに対してより優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-07T09:45:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。