論文の概要: EndoSLAM Dataset and An Unsupervised Monocular Visual Odometry and Depth
Estimation Approach for Endoscopic Videos: Endo-SfMLearner
- arxiv url: http://arxiv.org/abs/2006.16670v3
- Date: Thu, 1 Oct 2020 13:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:46:50.789277
- Title: EndoSLAM Dataset and An Unsupervised Monocular Visual Odometry and Depth
Estimation Approach for Endoscopic Videos: Endo-SfMLearner
- Title(参考訳): EndoSLAMデータセットと教師なし単眼視計測と内視鏡画像の深さ推定手法:endo-SfMLearner
- Authors: Kutsev Bengisu Ozyoruk, Guliz Irem Gokceler, Gulfize Coskun, Kagan
Incetan, Yasin Almalioglu, Faisal Mahmood, Eva Curto, Luis Perdigoto, Marina
Oliveira, Hasan Sahin, Helder Araujo, Henrique Alexandrino, Nicholas J. Durr,
Hunter B. Gilbert, and Mehmet Turan
- Abstract要約: ブタの臓器の3次元点クラウドデータからなる包括的内視鏡的SLAMデータセットを提案する。
深度とポーズアノテーションを兼ね備えた合成カプセル内視鏡フレームは、シミュレーションから現実の移動学習アルゴリズムの研究を容易にするために組み込まれている。
教師なし単眼深度とポーズ推定法であるEndo-SfMLearnerを提案する。
- 参考スコア(独自算出の注目度): 10.341552258136572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning techniques hold promise to develop dense topography
reconstruction and pose estimation methods for endoscopic videos. However,
currently available datasets do not support effective quantitative
benchmarking. In this paper, we introduce a comprehensive endoscopic SLAM
dataset consisting of 3D point cloud data for six porcine organs, capsule and
standard endoscopy recordings as well as synthetically generated data. A Panda
robotic arm, two commercially available capsule endoscopes, two conventional
endoscopes with different camera properties, and two high precision 3D scanners
were employed to collect data from 8 ex-vivo porcine gastrointestinal
(GI)-tract organs. In total, 35 sub-datasets are provided with 6D pose ground
truth for the ex-vivo part: 18 sub-dataset for colon, 12 sub-datasets for
stomach and 5 sub-datasets for small intestine, while four of these contain
polyp-mimicking elevations carried out by an expert gastroenterologist.
Synthetic capsule endoscopy frames from GI-tract with both depth and pose
annotations are included to facilitate the study of simulation-to-real transfer
learning algorithms. Additionally, we propound Endo-SfMLearner, an unsupervised
monocular depth and pose estimation method that combines residual networks with
spatial attention module in order to dictate the network to focus on
distinguishable and highly textured tissue regions. The proposed approach makes
use of a brightness-aware photometric loss to improve the robustness under fast
frame-to-frame illumination changes. To exemplify the use-case of the EndoSLAM
dataset, the performance of Endo-SfMLearner is extensively compared with the
state-of-the-art. The codes and the link for the dataset are publicly available
at https://github.com/CapsuleEndoscope/EndoSLAM. A video demonstrating the
experimental setup and procedure is accessible through
https://www.youtube.com/watch?v=G_LCe0aWWdQ.
- Abstract(参考訳): 深層学習技術は内視鏡ビデオの高密度地形再構成とポーズ推定法の開発を約束している。
しかし、現在利用可能なデータセットは効果的な定量的ベンチマークをサポートしていない。
本稿では,ブタの臓器,カプセルおよび標準内視鏡記録用3次元点雲データと合成合成データからなる包括的内視鏡的SLAMデータセットを提案する。
パンダのロボットアーム、2つの市販カプセル内視鏡、2つのカメラ特性の異なる従来の内視鏡、2つの高精度3dスキャナを使用して、元vivo porcine gastrointestinal (gi) の臓器からデータを収集した。
総計35のサブデータセットに、結腸18のサブデータセット、胃12のサブデータセット、小腸5のサブデータセット、そして4つのサブデータセットには、専門家の胃腸学者が行うポリプミミキシング上昇が含まれている。
GI-tractから合成カプセル内視鏡フレームを奥行きとポーズアノテーションに含め、シミュレーションからリアル移行学習アルゴリズムの研究を容易にする。
さらに,残差ネットワークと空間的注意モジュールを組み合わせた非教師なし単眼深度・ポーズ推定法である endo-sfmlearner を提案,ネットワークを識別可能かつ高テクスチャな組織領域に焦点を合わせるように指示する。
提案手法では,輝度認識による測光損失を利用して,フレーム間高速照明変化時のロバスト性を向上させる。
EndoSLAMデータセットの使用例を示すために、Endo-SfMLearnerのパフォーマンスは最先端技術と比較される。
データセットのコードとリンクはhttps://github.com/CapsuleEndoscope/EndoSLAMで公開されている。
実験的なセットアップと手順を示すビデオはhttps://www.youtube.com/watch?
v=G_LCe0aWWdQ。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Leveraging Near-Field Lighting for Monocular Depth Estimation from Endoscopy Videos [12.497782583094281]
内視鏡ビデオにおける単眼深度推定は、補助手術やロボット手術により、臓器のより良いカバレッジと様々な健康問題の検出が可能になる。
主流の自然画像深度推定では有望な進歩があったが、内視鏡画像では技術が不十分であった。
本稿では, 内視鏡から放射される光を表面から反射する光学的手がかりを用いて, 単分子深度推定を改善する。
論文 参考訳(メタデータ) (2024-03-26T17:52:23Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - RVD: A Handheld Device-Based Fundus Video Dataset for Retinal Vessel
Segmentation [42.145795119000056]
ハンドヘルドデバイスを用いた最初のビデオベース網膜データセットをデータ取得に適用する。
このデータセットは、50歳から75歳の415人の患者を含む4つのクリニックから収集された635のスマートフォンベースのファンドビデオで構成されている。
論文 参考訳(メタデータ) (2023-07-13T06:30:09Z) - A geometry-aware deep network for depth estimation in monocular
endoscopy [17.425158094539462]
提案手法は,異なるデータセットと臨床画像にまたがって広範囲に検証されている。
提案法の平均RMSE値は12.604(T1-L1)、9.930(T2-L2)、13.893(Colon)である。
論文 参考訳(メタデータ) (2023-04-20T11:59:32Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - EndoMapper dataset of complete calibrated endoscopy procedures [8.577980383972005]
本報告では,通常の診療で取得した内視鏡の完全配列の最初のコレクションであるEndomapperデータセットについて紹介する。
データは3Dマッピングとローカライゼーションシステムの構築に使用され、探索中に盲点を検出するなど、特別なタスクを実行できる。
論文 参考訳(メタデータ) (2022-04-29T17:10:01Z) - SERV-CT: A disparity dataset from CT for validation of endoscopic 3D
reconstruction [8.448866668577946]
CT(SERV-CT)に基づく立体内視鏡再構成検証データセットを提案する。
SERV-CTデータセットは、内視鏡画像の大部分をカバーするスムーズな参照格差と深さを持つ外科的アプリケーションのための使いやすい立体的検証を提供します。
論文 参考訳(メタデータ) (2020-12-22T01:28:30Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。