論文の概要: Graph Convolutional Neural Networks for Automated Echocardiography View
Recognition: A Holistic Approach
- arxiv url: http://arxiv.org/abs/2402.19062v1
- Date: Thu, 29 Feb 2024 11:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:01:32.463362
- Title: Graph Convolutional Neural Networks for Automated Echocardiography View
Recognition: A Holistic Approach
- Title(参考訳): 自動心エコー画像認識のためのグラフ畳み込みニューラルネットワーク : ホロスティックアプローチ
- Authors: Sarina Thomas, Cristiana Tiago, B{\o}rge Solli Andreassen, Svein-Arne
Aase, Jurica Sprem, Erik Steen, Anne Solberg, Guy Ben-Yosef
- Abstract要約: グラフ畳み込みによる3D心筋メッシュの学習について、同様の手法を用いて、自然な画像から3Dメッシュを学習する。
我々は,3次元メッシュから合成US画像を生成する。
この手法は合成画像に優れた性能をもたらし、合成データにのみ訓練されているにもかかわらず、臨床画像に適用された場合の可能性を既に示していた。
- 参考スコア(独自算出の注目度): 0.586336038845426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To facilitate diagnosis on cardiac ultrasound (US), clinical practice has
established several standard views of the heart, which serve as reference
points for diagnostic measurements and define viewports from which images are
acquired. Automatic view recognition involves grouping those images into
classes of standard views. Although deep learning techniques have been
successful in achieving this, they still struggle with fully verifying the
suitability of an image for specific measurements due to factors like the
correct location, pose, and potential occlusions of cardiac structures. Our
approach goes beyond view classification and incorporates a 3D mesh
reconstruction of the heart that enables several more downstream tasks, like
segmentation and pose estimation. In this work, we explore learning 3D heart
meshes via graph convolutions, using similar techniques to learn 3D meshes in
natural images, such as human pose estimation. As the availability of fully
annotated 3D images is limited, we generate synthetic US images from 3D meshes
by training an adversarial denoising diffusion model. Experiments were
conducted on synthetic and clinical cases for view recognition and structure
detection. The approach yielded good performance on synthetic images and,
despite being exclusively trained on synthetic data, it already showed
potential when applied to clinical images. With this proof-of-concept, we aim
to demonstrate the benefits of graphs to improve cardiac view recognition that
can ultimately lead to better efficiency in cardiac diagnosis.
- Abstract(参考訳): 心臓超音波(US)の診断を容易にするために、臨床は、診断のための基準点として機能し、画像を取得するビューポートを定義するために、心臓の標準的な見方を確立した。
自動ビュー認識は、それらの画像を標準ビューのクラスにグループ化する。
ディープラーニングの技術は成功しているが、心臓構造の正確な位置、ポーズ、潜在的な閉塞といった要因により、特定の測定値に対する画像の適合性を完全に検証するのに苦労している。
我々のアプローチは、ビューの分類を超えて、セグメンテーションやポーズ推定といった、より下流のタスクを可能にする3Dメッシュによる心臓の再構築を取り入れています。
本研究では,人間のポーズ推定などの自然画像における3次元メッシュの学習に類似した手法を用いて,グラフ畳み込みによる3次元心臓メッシュの学習について検討する。
完全アノテートされた3D画像の可用性が制限されるため, 対向性認知拡散モデルのトレーニングにより, 3次元メッシュから合成US画像を生成する。
ビュー認識および構造検出のための合成および臨床症例について実験を行った。
このアプローチは合成画像に優れたパフォーマンスをもたらし、合成データのみをトレーニングしたものの、臨床画像に適用するとすでに潜在的な可能性が示された。
本研究の目的は,この概念の証明によって,心臓診断の効率向上につながる心視認識を改善するグラフの利点を実証することである。
関連論文リスト
- EigenHearts: Cardiac Diseases Classification Using EigenFaces Approach [2.2851400085359685]
心疾患の分類におけるEigenFacesアプローチの応用について検討した。
我々は、心エコー図法における固有顔アプローチから着想を得た前処理ステップを実行し、ポッドモードのセットを生成し、それを固有ハートと呼ぶ。
その結果,SVDを前処理に用いた場合,分類精度は約50%向上した。
論文 参考訳(メタデータ) (2024-11-25T09:41:20Z) - Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Explicit Differentiable Slicing and Global Deformation for Cardiac Mesh Reconstruction [8.730291904586656]
医用画像からの心臓解剖のメッシュ再構築は, 形状, 運動計測, 生体物理シミュレーションに有用である。
従来のボクセルベースのアプローチは、イメージの忠実さを損なう前処理と後処理に依存している。
そこで本稿では,メッシュのスライスからメッシュへの勾配バックプロパゲーションを可能にする,新しい識別可能なボキセル化とスライシング(DVS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-03T17:19:31Z) - Multi-scale, Data-driven and Anatomically Constrained Deep Learning
Image Registration for Adult and Fetal Echocardiography [4.923733944174007]
胎児と成人のエコーにおける深層学習画像登録のための3つの戦略を組み合わせた枠組みを提案する。
以上の結果から, 良好な解剖学的トポロジーと画像テクスチャは, 形状符号化およびデータ駆動型対向損失と強く結びついていることが判明した。
当社のアプローチは,光学フローやElastixなど,従来の非DLゴールド登録手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-02T05:33:31Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Graph Self-Supervised Learning for Endoscopic Image Matching [1.8275108630751844]
鍵点間の空間関係をモデル化するために,局所的な視覚的外観を捉える畳み込みニューラルネットワークと注目に基づくグラフニューラルネットワークを組み合わせた,新たな自己教師型アプローチを提案する。
我々のアプローチはラベル付きデータを必要とせず、完全に自己管理されたスキームで訓練されている。
提案手法は,最先端の手工法と深層学習法より優れ,精度(1)とマッチングスコア(99.3%)で優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:53:41Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Structured Landmark Detection via Topology-Adapting Deep Graph Learning [75.20602712947016]
解剖学的顔と医学的ランドマーク検出のための新しいトポロジ適応深層グラフ学習手法を提案する。
提案手法は局所像特徴と大域形状特徴の両方を利用するグラフ信号を構成する。
3つの公開顔画像データセット(WFLW、300W、COFW-68)と3つの現実世界のX線医学データセット(ケパロメトリ、ハンド、ペルビス)で実験を行った。
論文 参考訳(メタデータ) (2020-04-17T11:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。