論文の概要: Recovering medical images from CT film photos
- arxiv url: http://arxiv.org/abs/2203.05567v1
- Date: Thu, 10 Mar 2022 03:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:52:46.007033
- Title: Recovering medical images from CT film photos
- Title(参考訳): ctフィルム写真からの医用画像の復元
- Authors: Quan Quan, Qiyuan Wang, Yuanqi Du, Liu Li, S. Kevin Zhou
- Abstract要約: 我々は,広く使用されているコンピュータグラフィックスソフトウェアであるBlenderを用いて,約20,000枚の画像からなる大規模頭部CTフィルムデータベースCTFilm20Kを構築した。
textbfFilm textbfImage textbfRecovery textbfNetwork という深層フレームワークを提案する。
本研究では,デワープ画像からDICOMファイルへの変換をカスケードモデルで行うことにより,ラジオミクスの特徴抽出などのさらなる解析を行う。
- 参考スコア(独自算出の注目度): 20.57188970071559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While medical images such as computed tomography (CT) are stored in DICOM
format in hospital PACS, it is still quite routine in many countries to print a
film as a transferable medium for the purposes of self-storage and secondary
consultation. Also, with the ubiquitousness of mobile phone cameras, it is
quite common to take pictures of CT films, which unfortunately suffer from
geometric deformation and illumination variation. In this work, we study the
problem of recovering a CT film, which marks \textbf{the first attempt} in the
literature, to the best of our knowledge. We start with building a large-scale
head CT film database CTFilm20K, consisting of approximately 20,000 pictures,
using the widely used computer graphics software Blender. We also record all
accompanying information related to the geometric deformation (such as 3D
coordinate, depth, normal, and UV maps) and illumination variation (such as
albedo map). Then we propose a deep framework called \textbf{F}ilm
\textbf{I}mage \textbf{Re}covery \textbf{Net}work (\textbf{FIReNet}) to tackle
geometric deformation and illumination variation using the multiple maps
extracted from the CT films to collaboratively guide the recovery process.
Finally, we convert the dewarped images to DICOM files with our cascade model
for further analysis such as radiomics feature extraction. Extensive
experiments demonstrate the superiority of our approach over the previous
approaches. We plan to open source the simulated images and deep models for
promoting the research on CT film image analysis.
- Abstract(参考訳): コンピュータ断層撮影(CT)などの医用画像は病院PACSのDICOM形式で保存されているが, セルフストレージや二次コンサルテーションのために, フィルムを転写可能な媒体として印刷することは, 多くの国で日常的に行われている。
また、携帯電話カメラのユビキタス化により、不運にも幾何学的変形や照明の変化に悩まされるCTフィルムの撮影が一般的である。
本研究は,文献に「最初の試み」と記されたctフィルムの回収問題を,我々の知識を最大限に活用するために検討するものである。
まず,広く使用されているコンピュータグラフィックスソフトウェアであるBlenderを用いて,約2万枚の画像からなる大規模頭部CTフィルムデータベースCTFilm20Kを構築した。
また,幾何学的変形(3次元座標,深さ,正規分布,紫外線図など)と照明変化(アルベド写像など)に関する全ての情報を記録した。
そこで我々は,CTフィルムから抽出した複数の地図を用いて,形状変形と照明変化に対処し,回復過程を協調的に導出するフレームワークを,textbf{F}ilm \textbf{I}mage \textbf{Re}covery \textbf{Net}work (\textbf{FIReNet}work) と呼ぶ。
最後に,放射能特徴抽出などのさらなる解析のためにカスケードモデルを用いてデワート画像をdicomファイルに変換する。
大規模な実験は、我々のアプローチが以前のアプローチよりも優れていることを示す。
我々は,ctフィルム画像解析研究を促進すべく,シミュレーション画像と深層モデルをオープンソースとして公開する予定である。
関連論文リスト
- CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Developing Generalist Foundation Models from a Multimodal Dataset for 3D Computed Tomography [1.8424705673580284]
我々は3次元医用画像と対応するテキストレポートとをマッチングする最初のデータセットであるCT-RATEを紹介する。
我々はCTに焦点を当てたコントラスト言語画像事前学習フレームワークであるCT-CLIPを開発した。
我々は3次元胸部CTボリュームのための視覚言語基礎チャットモデルであるCT-CHATを作成する。
論文 参考訳(メタデータ) (2024-03-26T16:19:56Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Transformers for CT Reconstruction From Monoplanar and Biplanar
Radiographs [0.11219061154635457]
両平面X線のみからのCT画像再構成の問題に対処する。
X線は広く利用されており、もしこれらのX線写真から再構成されたCTが、診断における完全なCTの代替ではないとしても、患者が放射線を免れるのに役立つかもしれない。
本稿では,言語翻訳問題として基礎となるタスクをフレーミングすることで,トランスフォーマーアーキテクチャに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-11T16:43:39Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Masked Sinogram Model with Transformer for ill-Posed Computed Tomography
Reconstruction: a Preliminary Study [0.9023847175654602]
自然言語処理におけるトランスフォーマーの成功に触発されて,この研究の中心となる考え方は,トモグラフィーの投影を単語トークンとして考えることである。
我々は、CT再構成を含む下流の様々なアプリケーションに対して、マスク付きシノグラムモデル(MSM)とファインチューンMSMをトレーニングすることで、基礎モデルのアイデアを探求する。
論文 参考訳(メタデータ) (2022-09-03T08:00:04Z) - CT Film Recovery via Disentangling Geometric Deformation and
Illumination Variation: Simulated Datasets and Deep Models [10.9537610290028]
約20,000枚の画像からなる大型ヘッドCTフィルムデータベースCTFilm20Kを構築します。
我々は,CTフィルムから抽出した多重マップを用いて,幾何学的変形と照明変化をアンタングル化する枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-17T10:32:19Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Consistent Video Depth Estimation [57.712779457632024]
モノクロ映像中の全画素に対して, 密度, 幾何的に整合した深度を再構成するアルゴリズムを提案する。
動画中の画素の幾何的制約を確立するために、従来の動きから再構成した構造を利用する。
我々のアルゴリズムは、手持ちの映像をある程度のダイナミックな動きで処理することができる。
論文 参考訳(メタデータ) (2020-04-30T17:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。