論文の概要: Zero-Shot Artifact2Artifact: Self-incentive artifact removal for photoacoustic imaging without any data
- arxiv url: http://arxiv.org/abs/2412.14873v2
- Date: Fri, 27 Dec 2024 05:49:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:22:05.933734
- Title: Zero-Shot Artifact2Artifact: Self-incentive artifact removal for photoacoustic imaging without any data
- Title(参考訳): ゼロショットアーティファクト2アーティファクト:データのない光音響イメージングのための自己インセンティブアーティファクト除去
- Authors: Shuang Li, Qian Chen, Chulhong Kim, Seongwook Choi, Yibing Wang, Yu Zhang, Changhui Li,
- Abstract要約: ZS-A2Aは超軽量ネットワークをベースとしたゼロショット自己監督型アーティファクト除去手法である。
ZS-A2Aは、既存のゼロショット法と比較して、最先端(SOTA)性能を達成する。
インビボで$1のラット肝臓では、ZS-A2Aはわずか8秒でCNRを17.48から43.46に改善する。
- 参考スコア(独自算出の注目度): 18.154498077143195
- License:
- Abstract: Photoacoustic imaging (PAI) uniquely combines optical contrast with the penetration depth of ultrasound, making it critical for clinical applications. However, the quality of 3D PAI is often degraded due to reconstruction artifacts caused by the sparse and angle-limited configuration of detector arrays. Existing iterative or deep learning-based methods are either time-consuming or require large training datasets, significantly limiting their practical application. Here, we propose Zero-Shot Artifact2Artifact (ZS-A2A), a zero-shot self-supervised artifact removal method based on a super-lightweight network, which leverages the fact that reconstruction artifacts are sensitive to irregularities caused by data loss. By introducing random perturbations to the acquired PA data, it spontaneously generates subset data, which in turn stimulates the network to learn the artifact patterns in the reconstruction results, thus enabling zero-shot artifact removal. This approach requires neither training data nor prior knowledge of the artifacts, and is capable of artifact removal for 3D PAI. For maximum amplitude projection (MAP) images or slice images in 3D PAI acquired with arbitrarily sparse or angle-limited detector arrays, ZS-A2A employs a self-incentive strategy to complete artifact removal and improves the Contrast-to-Noise Ratio (CNR). We validated ZS-A2A in both simulation study and $ in\ vivo $ animal experiments. Results demonstrate that ZS-A2A achieves state-of-the-art (SOTA) performance compared to existing zero-shot methods, and for the $ in\ vivo $ rat liver, ZS-A2A improves CNR from 17.48 to 43.46 in just 8 seconds. The project for ZS-A2A will be available in the following GitHub repository: https://github.com/JaegerCQ/ZS-A2A.
- Abstract(参考訳): 光音響イメージング(PAI)は、光学コントラストと超音波の透過深度を一意に組み合わせ、臨床応用に欠かせない。
しかしながら、3D PAIの品質は、検出器アレイのスパースや角度制限による復元アーチファクトによって劣化することが多い。
既存の反復的あるいはディープラーニングベースの手法は、時間を要するか、大規模なトレーニングデータセットを必要とする。
本稿では,ゼロショットアーティファクト2アーティファクト(ZS-A2A)を提案する。
取得したPAデータにランダムな摂動を導入することで、自発的にサブセットデータを生成し、それによってネットワークが再構成結果のアーティファクトパターンを学習し、ゼロショットアーティファクトの除去を可能にする。
このアプローチでは、トレーニングデータもアーティファクトの事前知識も必要とせず、3D PAIのためのアーティファクト削除も可能である。
任意にスパースまたは角度制限された検出器アレイで取得した3D PAIの最大振幅投影(MAP)画像やスライス画像に対し、ZS-A2Aはアーティファクトの除去を完了し、コントラスト・トゥ・ノイズ比(CNR)を改善している。
両シミュレーションでZS-A2Aを, 動物実験で$in\ vivo $を検証した。
その結果、ZS-A2Aは既存のゼロショット法と比較して最先端(SOTA)性能を達成し、in\ vivo $ rat liverの場合、ZS-A2Aはわずか8秒で17.48から43.46に改善した。
ZS-A2Aのプロジェクトは以下のGitHubリポジトリで利用できる。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Improving Synthetic Image Detection Towards Generalization: An Image Transformation Perspective [45.210030086193775]
現在の合成画像検出(SID)パイプラインは、主に普遍的なアーティファクト機能を構築することを目的としている。
3つの簡単な画像変換を持つ軽量かつ効率的な検出器SAFEを提案する。
我々のパイプラインは、新しい最先端のパフォーマンスを実現し、既存の手法に対する平均精度は4.5%、平均精度は2.9%向上した。
論文 参考訳(メタデータ) (2024-08-13T09:01:12Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - FreeSeed: Frequency-band-aware and Self-guided Network for Sparse-view
CT Reconstruction [34.91517935951518]
スパース・ビュー・コンピュート・トモグラフィー(CT)は, 患者への放射線曝露を迅速化し, 患者への放射線照射を緩和するための, 有望な方法である。
近年,深層学習に基づく画像後処理手法が有望な成果を上げている。
本稿では,FREquency-band-awarEとSelf-guidedを併用したFREquency-band-awarEとSelf-guidedネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T03:39:54Z) - Patch-Based Denoising Diffusion Probabilistic Model for Sparse-View CT
Reconstruction [6.907847093036819]
スパースビューCT(Sparse-view Computed Tomography)は、放射線線量を大幅に削減するために用いられるが、深刻な画像アーティファクトに悩まされる。
Sparse-view CT 再構成のための深層学習法が注目されている。
スパースビューCT再構成のためのパッチベース denoising diffusion probabilistic model (DDPM) を提案する。
論文 参考訳(メタデータ) (2022-11-18T17:35:36Z) - Learning MRI Artifact Removal With Unpaired Data [74.48301038665929]
振り返りアーティファクト補正(RAC)は、画像の質を向上し、画像のユーザビリティを向上させる。
最近のRACの機械学習駆動技術は、主に教師付き学習に基づいている。
ここでは、不要な画像アーティファクトを、未ペアデータで学習したRACニューラルネットワークを介して、画像から切り離し、取り除くことができることを示す。
論文 参考訳(メタデータ) (2021-10-09T16:09:27Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。