論文の概要: Self-Supervised Bulk Motion Artifact Removal in Optical Coherence
Tomography Angiography
- arxiv url: http://arxiv.org/abs/2202.10360v1
- Date: Mon, 21 Feb 2022 16:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:28:44.726563
- Title: Self-Supervised Bulk Motion Artifact Removal in Optical Coherence
Tomography Angiography
- Title(参考訳): 光コヒーレンス断層撮影における自己教師付きバルクモーションアーティファクト除去
- Authors: Jiaxiang Ren, Kicheon Park, Yingtian Pan, Haibin Ling
- Abstract要約: バルクモーションアーティファクト(BMA)は、被写体のマイクロモーションによるものであり、通常、ぼやけた領域に囲まれた明るいストライプとして現れる。
本稿では,自己管理型コンテンツ認識型BMAリカバリモデルを提案する。
我々のモデルはより大きなBMAを補正し、より良い視覚化結果をもたらすことができる。
- 参考スコア(独自算出の注目度): 62.416595926084206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical coherence tomography angiography (OCTA) is an important imaging
modality in many bioengineering tasks. The image quality of OCTA, however, is
often hurt by Bulk Motion Artifacts (BMA), which are due to micromotion of
subjects and typically appear as bright stripes surrounded by blurred areas.
State-of-the-art BMA handling solutions usually treat the problem as an image
inpainting one with deep neural network algorithms. These solutions, however,
require numerous training samples with nontrivial annotation. Nevertheless,
this context-based inpainting model has limited correction capability because
it discards the rich structural and appearance information carried in the BMA
stripe region. To address these issues, in this paper we propose a
self-supervised content-aware BMA recover model. First, the gradient-based
structural information and appearance feature are extracted from the BMA area
and injected into the model to capture more connectivity. Second, with easily
collected defective masks, the model is trained in a self-supervised manner
that only the clear areas are for training while the BMA areas for inference.
With structural information and appearance feature from noisy image as
references, our model could correct larger BMA and produce better visualizing
result. Only 2D images with defective masks are involved so our method is more
efficient. Experiments on OCTA of mouse cortex demonstrate that our model could
correct most BMA with extremely large sizes and inconsistent intensities while
existing methods fail.
- Abstract(参考訳): 光コヒーレンス断層撮影血管造影(OCTA)は多くのバイオエンジニアリングタスクにおいて重要な画像モダリティである。
しかし、オクタークの画質は、被写体の微小な動きによるバルクモーションアーティファクト(bma)によってしばしば傷つけられ、通常はぼやけた領域に囲まれた明るいストライプとして現れる。
最先端のbma処理ソリューションは、通常、この問題をディープニューラルネットワークアルゴリズムで絵を描くイメージとして扱う。
しかし、これらのソリューションは、非自明なアノテーションを持つ多数のトレーニングサンプルを必要とする。
それでも、このコンテキストベースの塗装モデルは、BMAストライプ領域で運ばれる豊富な構造や外観情報を破棄するため、補正能力に制限がある。
これらの問題に対処するため,本稿では,自己管理型コンテンツ認識型BMA復元モデルを提案する。
まず、勾配に基づく構造情報と外観特徴をbma領域から抽出し、モデルに注入してより多くの接続をキャプチャする。
第二に、容易に収集できる欠陥マスクにより、BMA領域が推論対象であるのに対して、明確な領域のみが訓練対象である自己教師型で訓練される。
構造情報とノイズ画像からの外観特徴を基準として,我々のモデルはより大きなBMAを補正し,より良い可視化結果が得られる。
マスクに欠陥のある2d画像のみが関与するので,より効率的である。
マウス大脳皮質のOCTA実験では,既存の手法が失敗しながら,非常に大きな大きさと不整合強度でほとんどのBMAを補正できることを示した。
関連論文リスト
- BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - MAEDiff: Masked Autoencoder-enhanced Diffusion Models for Unsupervised
Anomaly Detection in Brain Images [40.89943932086941]
脳画像における教師なし異常検出のためのMasked Autoencoder-enhanced Diffusion Model (MAEDiff)を提案する。
MAEDiffは、階層的なパッチ分割を含む。上層パッチを重畳して健全なイメージを生成し、サブレベルパッチで動作するマスク付きオートエンコーダに基づくメカニズムを実装し、未通知領域の状態を高める。
論文 参考訳(メタデータ) (2024-01-19T08:54:54Z) - AMLP:Adaptive Masking Lesion Patches for Self-supervised Medical Image
Segmentation [67.97926983664676]
自己監督型マスク画像モデリングは自然画像に対して有望な結果を示した。
しかし,このような手法を医用画像に直接適用することは依然として困難である。
適応型マスキング病変パッチ(AMLP)の自己管理型医用画像分割フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-08T13:18:10Z) - Modality Cycles with Masked Conditional Diffusion for Unsupervised
Anomaly Segmentation in MRI [2.5847188023177403]
教師なしの異常セグメンテーションは、トレーニング中に処理されたパターンとは異なるパターンを検出することを目的としている。
本稿では,マルチモーダルMRIにおける様々なパターンにまたがる異常のセグメンテーションを可能にするMMCCD(Masked Modality Cycles with Conditional Diffusion)を提案する。
本稿では,画像再構成とデノナイズに基づく教師なし手法と,オートエンコーダや拡散モデルとの比較を行った。
論文 参考訳(メタデータ) (2023-08-30T17:16:02Z) - A sparse coding approach to inverse problems with application to
microwave tomography [2.230861711161317]
哺乳類の視覚系に触発された自然画像に対して,現実的でコンパクトで効果的な生成モデルを提案する。
これにより、大量の画像の集合上でモデルをトレーニングすることで、不測の線形逆問題に対処することができる。
マイクロ波トモグラフィー画像における非線形および不適切な問題に対するスパース符号化の適用を拡大する。
論文 参考訳(メタデータ) (2023-08-07T14:28:59Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Stare at What You See: Masked Image Modeling without Reconstruction [154.74533119863864]
Masked Autoencoders (MAE) は、大規模な視覚表現事前学習のパラダイムとして広く普及している。
近年の手法では, 画像特徴を再構成対象として抽出するために, セマンティック・リッチな教師モデルが適用されており, 性能が向上している。
強力な教師モデルによって抽出された特徴は、画像中の領域間のリッチなセマンティックな相関を既にエンコードしていると論じる。
論文 参考訳(メタデータ) (2022-11-16T12:48:52Z) - Mixed-UNet: Refined Class Activation Mapping for Weakly-Supervised
Semantic Segmentation with Multi-scale Inference [28.409679398886304]
我々は、デコードフェーズに2つの並列分岐を持つMixed-UNetという新しいモデルを開発する。
地域病院や公開データセットから収集したデータセットに対して,いくつかの一般的なディープラーニングに基づくセグメンテーションアプローチに対して,設計したMixed-UNetを評価した。
論文 参考訳(メタデータ) (2022-05-06T08:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。