論文の概要: Depth to Anatomy: Learning Internal Organ Locations from Surface Depth Images
- arxiv url: http://arxiv.org/abs/2601.18260v1
- Date: Mon, 26 Jan 2026 08:33:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.741109
- Title: Depth to Anatomy: Learning Internal Organ Locations from Surface Depth Images
- Title(参考訳): 深度から解剖:表面深度画像から内部臓器の位置を学習する
- Authors: Eytan Kats, Kai Geissler, Daniel Mensing, Jochen G. Hirsch, Stefan Heldman, Mattias P. Heinrich,
- Abstract要約: 本研究では,体表面の2次元深度画像から,複数の臓器の3次元位置と形状を直接予測する学習型フレームワークを提案する。
本手法は骨や軟部組織などの解剖学的構造を表面の明示的な再構築を必要とせず正確に局在させる。
- 参考スコア(独自算出の注目度): 2.2821382245867414
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Automated patient positioning plays an important role in optimizing scanning procedure and improving patient throughput. Leveraging depth information captured by RGB-D cameras presents a promising approach for estimating internal organ positions, thereby enabling more accurate and efficient positioning. In this work, we propose a learning-based framework that directly predicts the 3D locations and shapes of multiple internal organs from single 2D depth images of the body surface. Utilizing a large-scale dataset of full-body MRI scans, we synthesize depth images paired with corresponding anatomical segmentations to train a unified convolutional neural network architecture. Our method accurately localizes a diverse set of anatomical structures, including bones and soft tissues, without requiring explicit surface reconstruction. Experimental results demonstrate the potential of integrating depth sensors into radiology workflows to streamline scanning procedures and enhance patient experience through automated patient positioning.
- Abstract(参考訳): 患者の自動位置決めは、スキャン手順の最適化と患者のスループット向上に重要な役割を果たしている。
RGB-Dカメラが捉えた深度情報を活用することで、内臓器の位置を推定し、より正確で効率的な位置決めを可能にする。
本研究では,体表面の2次元深度画像から,複数の臓器の3次元位置と形状を直接予測する学習型フレームワークを提案する。
大規模なフルボディMRIスキャンのデータセットを用いて、対応する解剖学的セグメントと組み合わせた深度画像を合成し、統合畳み込みニューラルネットワークアーキテクチャを訓練する。
本手法は骨や軟部組織などの解剖学的構造を表面の明示的な再構築を必要とせず正確に局在させる。
実験により, 深度センサを放射線学のワークフローに統合し, スキャン手順を合理化し, 自動位置決めによる患者体験を向上させる可能性が示された。
関連論文リスト
- Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - Internal Organ Localization Using Depth Images [1.8997357611855206]
本稿では,体表面から内臓器の位置を近似的に推定する学習基盤の実現可能性について検討する。
深層画像だけで臓器の位置や形状を正確に予測できる深層学習モデルを訓練する。
以上の結果から,MRIに内蔵されたRGB-Dカメラベースのシステムは,スキャン手順の合理化と患者体験の向上につながる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-30T14:55:23Z) - μ-Net: A Deep Learning-Based Architecture for μ-CT Segmentation [2.012378666405002]
X線計算マイクロトモグラフィー(mu-CT)は、医学および生物学的サンプルの内部解剖の高解像度な3D画像を生成する非破壊的手法である。
3D画像から関連情報を抽出するには、興味のある領域のセマンティックセグメンテーションが必要である。
本稿では、畳み込みニューラルネットワーク(CNN)を用いて、Carassius auratusの心臓の完全な形態を自動分割する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T15:29:08Z) - LOOC: Localizing Organs using Occupancy Networks and Body Surface Depth Images [2.104687387907779]
人体外から採取した1つの深度画像から,67の解剖学的構造を正確に同定するための新しいアプローチを提案する。
提案手法は多クラス占有ネットワークを用いて, 身体部位の変化を付加したセグメントCTスキャンを用いて訓練し, 密集した内臓器を扱うための特別なサンプリング戦略を取り入れた。
論文 参考訳(メタデータ) (2024-06-18T08:57:36Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Stereo Dense Scene Reconstruction and Accurate Laparoscope Localization
for Learning-Based Navigation in Robot-Assisted Surgery [37.14020061063255]
微小侵襲手術(MIS)における解剖情報と腹腔鏡位置の計算はロボット支援手術ナビゲーションの基本ブロックである
本稿では,複雑な解剖学的構造の3次元再構成による画像誘導腹腔鏡像の局在化を実現するための学習駆動型フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T06:12:18Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Deep Reinforcement Learning for Organ Localization in CT [59.23083161858951]
我々はCTにおける臓器局所化のための深層強化学習手法を提案する。
この研究において、人工エージェントは、その主張や誤りから学習することで、CT内の臓器の局所化を積極的に行う。
本手法は,任意の臓器をローカライズするためのプラグイン・アンド・プレイモジュールとして利用できる。
論文 参考訳(メタデータ) (2020-05-11T10:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。