論文の概要: Mastoidectomy Multi-View Synthesis from a Single Microscopy Image
- arxiv url: http://arxiv.org/abs/2409.03190v1
- Date: Sat, 31 Aug 2024 16:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 22:18:11.346962
- Title: Mastoidectomy Multi-View Synthesis from a Single Microscopy Image
- Title(参考訳): 単一顕微鏡像からのマストイド摘出多視点合成
- Authors: Yike Zhang, Jack Noble,
- Abstract要約: 単一CI顕微鏡画像から合成多視点映像を生成することができる新しいパイプラインを提案する。
本研究は, 術前CT検査を用いて, 乳頭切除後の表面を予測し, 本目的のために設計した方法である。
- 参考スコア(独自算出の注目度): 4.777201894011511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cochlear Implant (CI) procedures involve performing an invasive mastoidectomy to insert an electrode array into the cochlea. In this paper, we introduce a novel pipeline that is capable of generating synthetic multi-view videos from a single CI microscope image. In our approach, we use a patient's pre-operative CT scan to predict the post-mastoidectomy surface using a method designed for this purpose. We manually align the surface with a selected microscope frame to obtain an accurate initial pose of the reconstructed CT mesh relative to the microscope. We then perform UV projection to transfer the colors from the frame to surface textures. Novel views of the textured surface can be used to generate a large dataset of synthetic frames with ground truth poses. We evaluated the quality of synthetic views rendered using Pytorch3D and PyVista. We found both rendering engines lead to similarly high-quality synthetic novel-view frames compared to ground truth with a structural similarity index for both methods averaging about 0.86. A large dataset of novel views with known poses is critical for ongoing training of a method to automatically estimate microscope pose for 2D to 3D registration with the pre-operative CT to facilitate augmented reality surgery. This dataset will empower various downstream tasks, such as integrating Augmented Reality (AR) in the OR, tracking surgical tools, and supporting other video analysis studies.
- Abstract(参考訳): 人工内耳挿入術(CI)は、人工内耳に電極アレイを挿入する侵襲的なマストイド手術を行う。
本稿では,CI顕微鏡画像から合成多視点映像を生成する新しいパイプラインを提案する。
本研究は, 術前CTを用いて, 乳房切除後表面のCT像を予測し, 本目的のために設計した方法である。
我々は,表面を選択された顕微鏡フレームに手動で整列させて,再構成したCTメッシュの正確な初期ポーズを顕微鏡と比較した。
次に、UV投影を行い、フレームから表面テクスチャに色を転送する。
テクスチャ化された表面の新たなビューは、地上の真実のポーズを持つ合成フレームの大きなデータセットを生成するために使用することができる。
Pytorch3DとPyVistaを用いた合成画像の画質評価を行った。
両者のレンダリングエンジンは, ほぼ0.86の平均的な構造的類似度指数を持つ地上の真実と比較して, 同等に高品質な合成ノベルビューフレームに導かれることがわかった。
顕微鏡による2次元から3次元の撮影をCTで自動推定し、拡張現実(AR)の手術を容易にする手法の訓練を継続する上で、既知のポーズを持つ新規なビューの大規模なデータセットが重要である。
このデータセットは、ORにAR(Augmented Reality)を統合する、手術ツールの追跡、他のビデオ分析研究のサポートなど、さまざまな下流タスクを強化する。
関連論文リスト
- TomoGRAF: A Robust and Generalizable Reconstruction Network for Single-View Computed Tomography [3.1209855614927275]
従来の解析的・定性的なCT再構成アルゴリズムは数百の角データサンプリングを必要とする。
我々は,高品質な3Dボリュームを再構成するために,ユニークなX線輸送物理を取り入れた新しいTtomoGRAFフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-12T20:07:59Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - High-fidelity Endoscopic Image Synthesis by Utilizing Depth-guided Neural Surfaces [18.948630080040576]
内視鏡画像に適用したNeuSを1フレームの深度マップで補足した新しい大腸部分再建法を提案する。
本手法は, 大腸切片を完全にレンダリングし, 表面の見えない部分を捕捉する際の異常な精度を示す。
このブレークスルーは、安定的で一貫してスケールされた再建を達成するための道を開き、がんスクリーニングの手順と治療介入の質を高めることを約束する。
論文 参考訳(メタデータ) (2024-04-20T18:06:26Z) - GaSpCT: Gaussian Splatting for Novel CT Projection View Synthesis [0.6990493129893112]
GaSpCTはコンピュータ・トモグラフィー(CT)スキャンのための新しいプロジェクション・ビューを生成するために使用される新しいビュー合成および3次元シーン表現法である。
我々は,2次元画像投影の限られたセットに基づいて,CTにおける新しいビュー合成を可能にするために,ガウススティングフレームワークを適用した。
我々はParkinson's Progression Markers Initiative (PPMI)データセットから脳CTスキャンを用いてモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-04-04T00:28:50Z) - MeshBrush: Painting the Anatomical Mesh with Neural Stylization for Endoscopy [0.8437187555622164]
スタイルトランスファーは、医療内視鏡におけるシミュレートとリアルのギャップを埋めるための有望なアプローチである。
術前スキャンによって合成内視鏡ビデオをレンダリングすると、構造的に正確なシミュレーションが生成される。
CycleGANはこれらのシミュレーションから現実的な内視鏡像を模倣することができるが、ビデオとビデオの合成には適さない。
時間的に一貫した映像を合成するニューラルネットワークスタイリング手法であるMeshBrushを提案する。
論文 参考訳(メタデータ) (2024-04-03T18:40:48Z) - Domain adaptation strategies for 3D reconstruction of the lumbar spine using real fluoroscopy data [9.21828361691977]
本研究は整形外科手術における手術ナビゲーション導入における重要な障害に対処するものである。
これは、少数の蛍光画像から脊椎の3次元解剖モデルを生成するためのアプローチを示す。
これまでの合成データに基づく研究の精度に匹敵する84%のF1スコアを達成しました。
論文 参考訳(メタデータ) (2024-01-29T10:22:45Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。