論文の概要: Blind Inpainting with Object-aware Discrimination for Artificial Marker
Removal
- arxiv url: http://arxiv.org/abs/2303.15124v1
- Date: Mon, 27 Mar 2023 11:56:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 15:30:54.919074
- Title: Blind Inpainting with Object-aware Discrimination for Artificial Marker
Removal
- Title(参考訳): 人工マーカー除去のための物体認識識別によるブラインド塗装
- Authors: Xuechen Guo, Wenhao Hu, Chiming Ni, Wenhao Chai, Shiyan Li and Gaoang
Wang
- Abstract要約: 画像中のターゲット領域のマスクを指定せずに視覚的コンテンツを自動補完する新しい視覚的塗装手法を提案する。
提案モデルはマスクレス再構成ネットワークとオブジェクト認識識別器を含む。
オブジェクト認識識別器は、任意の局所領域において再構成画像のマーカーを検出できないように、高密度物体検出器の強力な認識能力に依存している。
- 参考スコア(独自算出の注目度): 4.956958678407206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical images often contain artificial markers added by doctors, which can
negatively affect the accuracy of AI-based diagnosis. To address this issue and
recover the missing visual contents, inpainting techniques are highly needed.
However, existing inpainting methods require manual mask input, limiting their
application scenarios. In this paper, we introduce a novel blind inpainting
method that automatically completes visual contents without specifying masks
for target areas in an image. Our proposed model includes a mask-free
reconstruction network and an object-aware discriminator. The reconstruction
network consists of two branches that predict the corrupted regions with
artificial markers and simultaneously recover the missing visual contents. The
object-aware discriminator relies on the powerful recognition capabilities of
the dense object detector to ensure that the markers of reconstructed images
cannot be detected in any local regions. As a result, the reconstructed image
can be close to the clean one as much as possible. Our proposed method is
evaluated on different medical image datasets, covering multiple imaging
modalities such as ultrasound (US), magnetic resonance imaging (MRI), and
electron microscopy (EM), demonstrating that our method is effective and robust
against various unknown missing region patterns.
- Abstract(参考訳): 医用画像には、医師が付加した人工マーカーがしばしば含まれており、AIベースの診断の精度に悪影響を及ぼす可能性がある。
この問題に対処し、欠落した視覚コンテンツを回復するためには、塗装技術が不可欠である。
しかし、既存の塗装方法は手動のマスク入力を必要とし、アプリケーションのシナリオを制限する。
本稿では,画像中の対象領域のマスクを指定せず,視覚コンテンツを自動的に補完する新しいブラインドインペインティング手法を提案する。
提案モデルはマスクフリーの再構成ネットワークと物体認識判別器を含む。
再構成ネットワークは、2つの枝からなり、腐敗した領域を人工的なマーカーで予測し、失明した視覚コンテンツを同時に復元する。
オブジェクト認識識別器は、任意の局所領域において再構成画像のマーカーを検出できないように、高密度物体検出器の強力な認識能力に依存している。
これにより、再構築された画像は、可能な限りクリーンに近いものにすることができる。
提案手法は超音波(us)、mri(mri)、電子顕微鏡(em)などの複数の画像モダリティをカバーし、様々な未知の領域パターンに対して有効で頑健であることを実証し、異なる医用画像データセット上で評価した。
関連論文リスト
- MAEDiff: Masked Autoencoder-enhanced Diffusion Models for Unsupervised
Anomaly Detection in Brain Images [40.89943932086941]
脳画像における教師なし異常検出のためのMasked Autoencoder-enhanced Diffusion Model (MAEDiff)を提案する。
MAEDiffは、階層的なパッチ分割を含む。上層パッチを重畳して健全なイメージを生成し、サブレベルパッチで動作するマスク付きオートエンコーダに基づくメカニズムを実装し、未通知領域の状態を高める。
論文 参考訳(メタデータ) (2024-01-19T08:54:54Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - DEPAS: De-novo Pathology Semantic Masks using a Generative Model [0.0]
DEPASと呼ばれるスケーラブルな生成モデルを導入し、組織構造をキャプチャし、最先端の品質の高精細なセマンティックマスクを生成する。
我々は,DEPASが皮膚,前立腺,肺の3種類の臓器に対して,組織の現実的な意味マップを生成する能力を示した。
論文 参考訳(メタデータ) (2023-02-13T16:48:33Z) - What's Behind the Mask: Estimating Uncertainty in Image-to-Image
Problems [29.55144604924458]
画像間ネットワークの不確実性を推定することは重要な課題である。
マスキングに基づく新しい手法を提案する。
マスクを用いた画像カラー化,画像補完,超解像処理における不確実性の評価を行った。
論文 参考訳(メタデータ) (2022-11-28T10:41:34Z) - Self-Supervised Bulk Motion Artifact Removal in Optical Coherence
Tomography Angiography [62.416595926084206]
バルクモーションアーティファクト(BMA)は、被写体のマイクロモーションによるものであり、通常、ぼやけた領域に囲まれた明るいストライプとして現れる。
本稿では,自己管理型コンテンツ認識型BMAリカバリモデルを提案する。
我々のモデルはより大きなBMAを補正し、より良い視覚化結果をもたらすことができる。
論文 参考訳(メタデータ) (2022-02-21T16:58:22Z) - A novel approach to remove foreign objects from chest X-ray images [0.0]
本稿では,胸部X線写真と胸部X線写真の両方にマルチメソッドを用いた。
結論として、我々は最先端の精度を達成した。
論文 参考訳(メタデータ) (2020-08-16T03:06:28Z) - NuI-Go: Recursive Non-Local Encoder-Decoder Network for Retinal Image
Non-Uniform Illumination Removal [96.12120000492962]
網膜画像の画質は、眼の病変や不完全な画像処理のために臨床的に不満足であることが多い。
網膜画像における最も難しい品質劣化問題の1つは、一様でない照明である。
我々はNuI-Goと呼ばれる網膜画像に対する均一でない照明除去ネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-07T04:31:33Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - VCNet: A Robust Approach to Blind Image Inpainting [70.68227719731243]
ブラインド・インペインティング(Blind inpainting)は、画像内の欠落した領域のマスクを指定せずに、視覚的コンテンツを自動的に完了するタスクである。
本稿では,未知の領域パターンに対してブラインド塗装ニューラルネットワークのトレーニングを堅牢にする,新たなブラインド塗装設定を定義する。
我々の手法はブラインド画像の塗布において有効で堅牢であり、また当社のVCNは幅広い応用を可能にしている。
論文 参考訳(メタデータ) (2020-03-15T12:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。