論文の概要: RealSynCol: a high-fidelity synthetic colon dataset for 3D reconstruction applications
- arxiv url: http://arxiv.org/abs/2602.08397v1
- Date: Mon, 09 Feb 2026 08:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.136997
- Title: RealSynCol: a high-fidelity synthetic colon dataset for 3D reconstruction applications
- Title(参考訳): RealSynCol:3次元再構成のための高忠実な合成大腸データセット
- Authors: Chiara Lena, Davide Milesi, Alessandro Casella, Luca Carlini, Joseph C. Norton, James Martin, Bruno Scaglioni, Keith L. Obstein, Roberto De Sire, Marco Spadaccini, Cesare Hassan, Pietro Valdastri, Elena De Momi,
- Abstract要約: 本研究では, 内視鏡環境を再現する高度にリアルな合成データセットであるRealSynColを提案する。
得られたデータセットは28,130フレームで構成され、地上の真理深度マップ、光学フロー、3Dメッシュ、カメラ軌道と組み合わせられる。
その結果, RealSynColの高現実性と可変性は臨床画像の一般化性能を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 33.26682919703966
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning has the potential to improve colonoscopy by enabling 3D reconstruction of the colon, providing a comprehensive view of mucosal surfaces and lesions, and facilitating the identification of unexplored areas. However, the development of robust methods is limited by the scarcity of large-scale ground truth data. We propose RealSynCol, a highly realistic synthetic dataset designed to replicate the endoscopic environment. Colon geometries extracted from 10 CT scans were imported into a virtual environment that closely mimics intraoperative conditions and rendered with realistic vascular textures. The resulting dataset comprises 28\,130 frames, paired with ground truth depth maps, optical flow, 3D meshes, and camera trajectories. A benchmark study was conducted to evaluate the available synthetic colon datasets for the tasks of depth and pose estimation. Results demonstrate that the high realism and variability of RealSynCol significantly enhance generalization performance on clinical images, proving it to be a powerful tool for developing deep learning algorithms to support endoscopic diagnosis.
- Abstract(参考訳): 深層学習は、大腸の3D再構成を可能にし、粘膜の表面や病変の全体像を提供し、未発見領域の同定を容易にすることにより、大腸内視鏡を改善する可能性がある。
しかし,ロバストな手法の開発は,大規模地下真実データの不足によって制限されている。
本研究では, 内視鏡環境を再現する高度にリアルな合成データセットであるRealSynColを提案する。
10個のCTスキャンから抽出した大腸のジオメトリーを仮想環境に移植し,術中状態を忠実に再現し,リアルな血管のテクスチャでレンダリングした。
得られたデータセットは28,130フレームで構成され、地上の真理深度マップ、光学フロー、3Dメッシュ、カメラ軌道と組み合わせられる。
深度とポーズ推定のタスクに対して利用可能な合成大腸データセットを評価するためのベンチマーク研究を行った。
その結果,RealSynColの高現実性と可変性は臨床画像の一般化性能を著しく向上させ,内視鏡診断を支援するためのディープラーニングアルゴリズムを開発するための強力なツールであることが証明された。
関連論文リスト
- Zero-shot Monocular Metric Depth for Endoscopic Images [9.205799953828896]
そこで本研究では,実画像と非可視画像で評価された最先端(メトリックおよび相対)深度推定モデルのベンチマークについて述べる。
我々は,地上の真理メートル法深度とセグメンテーションマスクを組み合わせた内視鏡手術器具の新たな合成データセット(Endo Synth)を公表した。
合成データセットを用いた微調整深度基礎モデルでは、ほとんど見えない実データの精度をかなりのマージンで向上させることを示した。
論文 参考訳(メタデータ) (2025-09-23T04:56:25Z) - Advances in Feed-Forward 3D Reconstruction and View Synthesis: A Survey [171.72616707259306]
3D再構成とビュー合成は、拡張現実(AR)、仮想現実(VR)、デジタルツインといった没入型技術における基礎的な問題である。
深層学習によるフィードフォワードアプローチの最近の進歩は、高速で一般化可能な3次元再構成とビュー合成を可能にして、この分野に革命をもたらした。
論文 参考訳(メタデータ) (2025-07-19T06:13:25Z) - R3D2: Realistic 3D Asset Insertion via Diffusion for Autonomous Driving Simulation [78.26308457952636]
本稿では,自律運転シミュレーションの限界を克服する軽量な1ステップ拡散モデルであるR3D2を紹介する。
シャドウや一貫した照明など、妥当なレンダリング効果を生み出すことで、既存のシーンに完全な3Dアセットを現実的に挿入することができる。
R3D2は挿入されたアセットの現実性を大幅に向上させ,テキストから3Dへのアセット挿入やクロスシーン/データセットオブジェクト転送といったユースケースを可能にした。
論文 参考訳(メタデータ) (2025-06-09T14:50:19Z) - EndoSparse: Real-Time Sparse View Synthesis of Endoscopic Scenes using Gaussian Splatting [39.60431471170721]
内視鏡画像からの生体組織の3次元再構成は, 様々な重要な下流外科的応用を3D機能で解き放つ鍵となる。
既存の手法では、ビュー合成に様々な高度なニューラルレンダリング技術を採用しているが、スパースな観察しかできない場合には、正確な3D表現の復元に苦慮することが多い。
再建過程において,複数の基盤モデルから事前の知識を活用するフレームワークを提案し,それをtextitEndoSparse と呼ぶ。
論文 参考訳(メタデータ) (2024-07-01T07:24:09Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Domain adaptation strategies for 3D reconstruction of the lumbar spine using real fluoroscopy data [9.21828361691977]
本研究は整形外科手術における手術ナビゲーション導入における重要な障害に対処するものである。
これは、少数の蛍光画像から脊椎の3次元解剖モデルを生成するためのアプローチを示す。
これまでの合成データに基づく研究の精度に匹敵する84%のF1スコアを達成しました。
論文 参考訳(メタデータ) (2024-01-29T10:22:45Z) - A geometry-aware deep network for depth estimation in monocular
endoscopy [17.425158094539462]
提案手法は,異なるデータセットと臨床画像にまたがって広範囲に検証されている。
提案法の平均RMSE値は12.604(T1-L1)、9.930(T2-L2)、13.893(Colon)である。
論文 参考訳(メタデータ) (2023-04-20T11:59:32Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。