論文の概要: D-Net: Siamese based Network with Mutual Attention for Volume Alignment
- arxiv url: http://arxiv.org/abs/2101.10248v1
- Date: Mon, 25 Jan 2021 17:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:00:01.166466
- Title: D-Net: Siamese based Network with Mutual Attention for Volume Alignment
- Title(参考訳): D-Net: ボリュームアライメントを考慮したSiameseベースのネットワーク
- Authors: Jian-Qing Zheng, Ngee Han Lim, Bartlomiej W. Papiez
- Abstract要約: D-netは分岐したシームズエンコーダ-デコーダ構造の拡張であり、新しい相互非局所リンクで接続される。
3D CTスキャン間の任意の回転と翻訳を推定する新しいネットワーク D-net を提案する。
その結果,CTアライメントの精度が向上し,現在の同等の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 3.00948372643855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Alignment of contrast and non-contrast-enhanced imaging is essential for the
quantification of changes in several biomedical applications. In particular,
the extraction of cartilage shape from contrast-enhanced Computed Tomography
(CT) of tibiae requires accurate alignment of the bone, currently performed
manually. Existing deep learning-based methods for alignment require a common
template or are limited in rotation range. Therefore, we present a novel
network, D-net, to estimate arbitrary rotation and translation between 3D CT
scans that additionally does not require a prior standard template. D-net is an
extension to the branched Siamese encoder-decoder structure connected by new
mutual non-local links, which efficiently capture long-range connections of
similar features between two branches. The 3D supervised network is trained and
validated using preclinical CT scans of mouse tibiae with and without contrast
enhancement in cartilage. The presented results show a significant improvement
in the estimation of CT alignment, outperforming the current comparable
methods.
- Abstract(参考訳): いくつかの生物医学的応用における変化の定量化には、コントラストと非コントラスト強調イメージングのアライメントが不可欠です。
特に, 造影CTからの軟骨形状の抽出には, 現在手動で行われている骨の正確なアライメントが必要である。
既存のディープラーニングベースのアライメントでは、共通のテンプレートやローテーション範囲が制限されている。
そこで本研究では,従来の標準テンプレートを必要としない3次元CTスキャン間の任意の回転と変換を推定する新しいネットワークD-netを提案する。
d-net は分岐した siamese エンコーダ-デコーダ構造の拡張であり、新しい相互非局所リンクによって接続される。
この3D教師ネットワークは, 軟骨の造影を伴わず, 術前CTスキャンを用いて訓練し, 検証した。
以上の結果より, ctアライメントの推定精度は, 現在の比較法を上回って有意に向上した。
関連論文リスト
- Deep Conditional Shape Models for 3D cardiac image segmentation [1.4042211166197214]
本稿では,Deep Shape Model (DCSM) Conditional をコアコンポーネントとする新しいセグメンテーションアルゴリズムを提案する。
生成した形状を画像に合わせるため、形状モデルを解剖学的ランドマークに条件付けし、ユーザーが自動的に検出または提供することができる。
局所的な改善を伴わずに非造影CTの基準線を上回り, 造影CT, 3DE, 特にハウスドルフ距離を著しく改善した。
論文 参考訳(メタデータ) (2023-10-16T18:38:26Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - The entire network structure of Crossmodal Transformer [4.605531191013731]
提案手法はまず2次元X線と3次元CT画像から骨格の特徴を深く学習する。
その結果、よく訓練されたネットワークは任意の2D X線と3D CT間の空間的対応を直接予測することができる。
論文 参考訳(メタデータ) (2021-04-29T11:47:31Z) - SCPM-Net: An Anchor-free 3D Lung Nodule Detection Network using Sphere
Representation and Center Points Matching [47.79483848496141]
3次元球面表現に基づく中心点マッチング検出ネットワーク(SCPM-Net)を提案する。
アンカーフリーで、nodule/anchorパラメータを手動で設計することなく、nodulesの位置、半径、オフセットを自動的に予測する。
提案するSCPM-Netフレームワークは,既存のアンカーベースおよびアンカーフリーの肺結節検出法と比較して,優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-04-12T05:51:29Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Context-Aware Refinement Network Incorporating Structural Connectivity
Prior for Brain Midline Delineation [50.868845400939314]
UNetによって生成された特徴ピラミッド表現を洗練・統合するための文脈対応改良ネットワーク(CAR-Net)を提案する。
正中線における脳の構造的接続性を維持するため、我々は新しい接続性レギュラーロスを導入する。
提案手法は, パラメータを少なくし, 4つの評価指標で3つの最先端手法より優れる。
論文 参考訳(メタデータ) (2020-07-10T14:01:20Z) - A lateral semicircular canal segmentation based geometric calibration
for human temporal bone CT Image [13.829782834867192]
側頭骨CT画像の自動校正アルゴリズムを提案する。
側方半円管(LSC)は最初,アンカーとして分割され,次に標準3次元座標系を定義する。
符号化段階における特徴融合のための3次元拡張畳み込みとマルチプール方式を導入した新しい3次元LCCセグメンテーション・デコーダネットワークを設計する。
論文 参考訳(メタデータ) (2020-06-28T12:36:08Z) - HRINet: Alternative Supervision Network for High-resolution CT image
Interpolation [3.7966959476339035]
我々は,高分解能CT画像の生成を目的とした,新しいネットワークであるHigh Resolution Interpolation Network (HRINet)を提案する。
本稿では,ACAI と GAN のアイデアを組み合わせて,教師なしと教師なしのトレーニングを適用して,代替監督手法の新たなアイデアを提案する。
実験の結果,2562,5122画像の定量的,定性的に大きな改善が見られた。
論文 参考訳(メタデータ) (2020-02-11T15:09:42Z) - A$^3$DSegNet: Anatomy-aware artifact disentanglement and segmentation
network for unpaired segmentation, artifact reduction, and modality
translation [18.500206499468902]
CBCT画像は, ノイズ, 組織コントラストの低下, 金属物の存在により, 品質が低く, 人工物が混入している。
脊椎のアノテーションを付加した、人工物のない高品質なCT画像が豊富に存在する。
CBCT椎体分割モデルの構築には, アノテーションを付加した未確認CT画像が有用である。
論文 参考訳(メタデータ) (2020-01-02T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。