論文の概要: From Images to Probabilistic Anatomical Shapes: A Deep Variational
Bottleneck Approach
- arxiv url: http://arxiv.org/abs/2205.06862v1
- Date: Fri, 13 May 2022 19:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 14:22:05.251333
- Title: From Images to Probabilistic Anatomical Shapes: A Deep Variational
Bottleneck Approach
- Title(参考訳): 画像から確率的解剖学的形状へ:深い変動ボトルネックアプローチ
- Authors: Jadie Adams and Shireen Elhabian
- Abstract要約: 3次元医用画像から直接の統計的形状モデリング(SSM)は、病理の検出、疾患の診断、人口レベルの形態解析を行うための未利用のツールである。
本稿では,これらの仮定を緩和するために,変分情報ボトルネック理論に基づく基本的枠組みを提案する。
実験により,提案手法により精度が向上し,校正精度が向上することを確認した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Statistical shape modeling (SSM) directly from 3D medical images is an
underutilized tool for detecting pathology, diagnosing disease, and conducting
population-level morphology analysis. Deep learning frameworks have increased
the feasibility of adopting SSM in medical practice by reducing the
expert-driven manual and computational overhead in traditional SSM workflows.
However, translating such frameworks to clinical practice requires calibrated
uncertainty measures as neural networks can produce over-confident predictions
that cannot be trusted in sensitive clinical decision-making. Existing
techniques for predicting shape with aleatoric (data-dependent) uncertainty
utilize a principal component analysis (PCA) based shape representation
computed in isolation from the model training. This constraint restricts the
learning task to solely estimating pre-defined shape descriptors from 3D images
and imposes a linear relationship between this shape representation and the
output (i.e., shape) space. In this paper, we propose a principled framework
based on the variational information bottleneck theory to relax these
assumptions while predicting probabilistic shapes of anatomy directly from
images without supervised encoding of shape descriptors. Here, the latent
representation is learned in the context of the learning task, resulting in a
more scalable, flexible model that better captures data non-linearity.
Additionally, this model is self-regularized and generalizes better given
limited training data. Our experiments demonstrate that the proposed method
provides improved accuracy and better calibrated aleatoric uncertainty
estimates than state-of-the-art methods.
- Abstract(参考訳): 3次元医用画像から直接の統計的形状モデリング(SSM)は、病理の検出、疾患の診断、人口レベルの形態解析を行うための未利用ツールである。
ディープラーニングフレームワークは、従来のSSMワークフローにおける専門家主導のマニュアルと計算オーバーヘッドを減らすことで、医療実践におけるSSMの採用の可能性を高めている。
しかしながら、そのようなフレームワークを臨床実践に翻訳するには、ニューラルネットワークが機密性のある臨床的意思決定に信頼できない過信的な予測を生成できるため、キャリブレーションされた不確実性対策が必要である。
モデルトレーニングから独立して計算された主成分分析(PCA)に基づく形状表現を用いて,アレータリックな(データに依存しない)不確実性を伴う形状の予測を行う。
この制約は、予め定義された形状記述子を3D画像からのみ推定する学習タスクを制限し、この形状表現と出力(形状)空間の間に線形関係を課す。
本稿では,形状記述子の符号化を指示することなく,画像から直接解剖の確率的形状を予測しながら,これらの仮定を緩和する変動情報ボトルネック理論に基づく基本的枠組みを提案する。
ここで、潜在表現は学習タスクの文脈で学習され、よりスケーラブルでフレキシブルなモデルとなり、データの非線形性をよりよくキャプチャする。
さらに、このモデルは自己正規化され、限られたトレーニングデータによってより一般化される。
実験により,提案手法は最先端手法よりも精度が向上し,校正精度が向上することを示した。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Probabilistic 3D Correspondence Prediction from Sparse Unsegmented Images [1.2179682412409507]
スパース画像データから3次元対応を予測する統一モデルであるSPI-CorrNetを提案する。
LGE MRI左房データセットとAbdomen CT-1K肝データセットを用いた実験により,スパース画像駆動SSMの精度とロバスト性の向上が示された。
論文 参考訳(メタデータ) (2024-07-02T03:56:20Z) - Weakly Supervised Bayesian Shape Modeling from Unsegmented Medical Images [4.424170214926035]
対応型統計形状モデリング(SSM)は、人口レベルの形態計測を容易にする。
ディープラーニングの最近の進歩は、推論においてこのプロセスを合理化している。
我々は,ポイントクラウドを用いた画像からSSMを予測するために,弱い教師付きディープラーニングアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-15T20:47:59Z) - SCorP: Statistics-Informed Dense Correspondence Prediction Directly from Unsegmented Medical Images [5.507868474642766]
SCorPは,非分割画像から直接表面上の対応を予測できる新しいフレームワークである。
提案モデルでは,対応予測タスクの監督を取り除き,トレーニングフェーズと推論フェーズを合理化する。
論文 参考訳(メタデータ) (2024-04-27T17:56:58Z) - ADASSM: Adversarial Data Augmentation in Statistical Shape Models From
Images [0.8192907805418583]
本稿では,データ依存型ノイズ生成やテクスチャ拡張を利用して,画像間SSMフレームワークのオンザフライデータ拡張のための新しい戦略を提案する。
提案手法は,画素値のみに頼らず,基礎となる幾何学に焦点をあてることにより,精度の向上を実現する。
論文 参考訳(メタデータ) (2023-07-06T20:21:12Z) - S3M: Scalable Statistical Shape Modeling through Unsupervised
Correspondences [91.48841778012782]
本研究では,集団解剖学における局所的および大域的形状構造を同時に学習するための教師なし手法を提案する。
我々のパイプラインは、ベースライン法と比較して、SSMの教師なし対応推定を大幅に改善する。
我々の手法は、ノイズの多いニューラルネットワーク予測から学ぶのに十分堅牢であり、より大きな患者にSSMを拡張できる可能性がある。
論文 参考訳(メタデータ) (2023-04-15T09:39:52Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Deep Implicit Statistical Shape Models for 3D Medical Image Delineation [47.78425002879612]
解剖学的構造の3次元デライン化は、医用画像解析の基本的な目標である。
ディープラーニング以前は、解剖学的制約を課し高品質の表面を作り出す統計的形状モデルはコア技術だった。
我々は,CNNの表現力とSSMの頑健さを合体させるデライン化の新しい手法であるディープ暗黙的統計的形状モデル(DISSMs)を提案する。
論文 参考訳(メタデータ) (2021-04-07T01:15:06Z) - Probabilistic 3D surface reconstruction from sparse MRI information [58.14653650521129]
スパース2次元MR画像データとアレータティック不確実性予測から3次元表面再構成を同時に行うための新しい確率論的深層学習手法を提案する。
本手法は,3つの準直交MR画像スライスから,限られたトレーニングセットから大きな表面メッシュを再構成することができる。
論文 参考訳(メタデータ) (2020-10-05T14:18:52Z) - Uncertain-DeepSSM: From Images to Probabilistic Shape Models [0.0]
DeepSSMは、非セグメント画像から直接統計的形状表現を抽出するエンドツーエンドのディープラーニングアプローチである。
DeepSSMは、視覚的に正確には仮定できないような、不確実な形状の推定を生成する。
本研究では,ネットワークを適応させて固有入力分散を予測することにより,データ依存型アレータティック不確実性の両方を定量化する統一モデルとして,Uncertain-DeepSSMを提案する。
論文 参考訳(メタデータ) (2020-07-13T17:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。