論文の概要: Blind Inpainting with Object-aware Discrimination for Artificial Marker Removal
- arxiv url: http://arxiv.org/abs/2303.15124v2
- Date: Thu, 31 Oct 2024 13:10:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:58:22.817848
- Title: Blind Inpainting with Object-aware Discrimination for Artificial Marker Removal
- Title(参考訳): 人工マーカー除去のための物体認識識別によるブラインド塗布
- Authors: Xuechen Guo, Wenhao Hu, Chiming Ni, Wenhao Chai, Shiyan Li, Gaoang Wang,
- Abstract要約: そこで本研究では,マスク入力を誘導することなく,劣化領域内の視覚コンテンツを自動再構成するブラインド塗装手法を提案する。
本モデルには,視覚再建ネットワークと,対人訓練のためのオブジェクト認識識別器が組み込まれている。
本手法は, 様々な医用画像モダリティの3つのデータセットを用いて評価し, 他の最先端手法よりも優れた性能が確認された。
- 参考スコア(独自算出の注目度): 7.459072397930477
- License:
- Abstract: Medical images often incorporate doctor-added markers that can hinder AI-based diagnosis. This issue highlights the need of inpainting techniques to restore the corrupted visual contents. However, existing methods require manual mask annotation as input, limiting the application scenarios. In this paper, we propose a novel blind inpainting method that automatically reconstructs visual contents within the corrupted regions without mask input as guidance. Our model includes a blind reconstruction network and an object-aware discriminator for adversarial training. The reconstruction network contains two branches that predict corrupted regions in images and simultaneously restore the missing visual contents. Leveraging the potent recognition capability of a dense object detector, the object-aware discriminator ensures markers undetectable after inpainting. Thus, the restored images closely resemble the clean ones. We evaluate our method on three datasets of various medical imaging modalities, confirming better performance over other state-of-the-art methods.
- Abstract(参考訳): 医用画像には、AIベースの診断を妨げるような、医師が付加したマーカーが組み込まれていることが多い。
この課題は、劣化した視覚コンテンツを復元するための塗装技術の必要性を強調している。
しかし、既存のメソッドは入力として手動のマスクアノテーションを必要とし、アプリケーションのシナリオを制限します。
本稿では,マスク入力を誘導することなく,劣化領域内の視覚的内容を自動的に再構築する新しいブラインド塗装手法を提案する。
本モデルには,視覚再建ネットワークと,対人訓練のためのオブジェクト認識識別器が組み込まれている。
再構成ネットワークは、画像内の劣化領域を予測し、欠落した視覚コンテンツを同時に復元する2つの分岐を含む。
高密度物体検出器の強力な認識能力を活用して、物体認識識別器は、塗布後のマーカーを検出不能にする。
このように復元された像は、清潔な像とよく似ている。
本手法は, 様々な医用画像モダリティの3つのデータセットを用いて評価し, 他の最先端手法よりも優れた性能が確認された。
関連論文リスト
- Social Media Authentication and Combating Deepfakes using Semi-fragile Invisible Image Watermarking [6.246098300155482]
本稿では,メディア認証のために,見えない秘密メッセージを実画像に埋め込む半フレジブルな画像透かし手法を提案する。
提案するフレームワークは,顔の操作や改ざんに対して脆弱であると同時に,画像処理操作や透かし除去攻撃に対して頑健であるように設計されている。
論文 参考訳(メタデータ) (2024-10-02T18:05:03Z) - Fill in the ____ (a Diffusion-based Image Inpainting Pipeline) [0.0]
塗り絵は、画像を撮り、失った、または故意に隠された部分を生成する過程である。
現代の塗装技術は、有能な完成物を生成する際、顕著な能力を示している。
既存のモデルにおける重要なギャップに対処し、何が正確に生成されたかをプロンプトし制御する能力に焦点を当てる。
論文 参考訳(メタデータ) (2024-03-24T05:26:55Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Building an Invisible Shield for Your Portrait against Deepfakes [34.65356811439098]
本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
論文 参考訳(メタデータ) (2023-05-22T10:01:28Z) - DocMAE: Document Image Rectification via Self-supervised Representation
Learning [144.44748607192147]
文書画像修正のための新しい自己教師型フレームワークDocMAEを提案する。
まず、背景を除いた文書画像のランダムなパッチをマスクし、欠落したピクセルを再構成する。
このような自己教師型学習手法により、ネットワークは変形文書の本質的な構造を学習することが奨励される。
論文 参考訳(メタデータ) (2023-04-20T14:27:15Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z) - Contrastive Registration for Unsupervised Medical Image Segmentation [1.5125686694430571]
非教師型医用画像分割のための新しいコントラスト型登録アーキテクチャを提案する。
まず、教師なしの医用画像セグメントの登録により、画像から画像への変換パターンをキャプチャするアーキテクチャを提案する。
第2に,特徴レベルのネットワークの識別能力を高めるために,コントラスト学習機構を登録アーキテクチャに組み込む。
論文 参考訳(メタデータ) (2020-11-17T19:29:08Z) - NuI-Go: Recursive Non-Local Encoder-Decoder Network for Retinal Image
Non-Uniform Illumination Removal [96.12120000492962]
網膜画像の画質は、眼の病変や不完全な画像処理のために臨床的に不満足であることが多い。
網膜画像における最も難しい品質劣化問題の1つは、一様でない照明である。
我々はNuI-Goと呼ばれる網膜画像に対する均一でない照明除去ネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-07T04:31:33Z) - VCNet: A Robust Approach to Blind Image Inpainting [70.68227719731243]
ブラインド・インペインティング(Blind inpainting)は、画像内の欠落した領域のマスクを指定せずに、視覚的コンテンツを自動的に完了するタスクである。
本稿では,未知の領域パターンに対してブラインド塗装ニューラルネットワークのトレーニングを堅牢にする,新たなブラインド塗装設定を定義する。
我々の手法はブラインド画像の塗布において有効で堅牢であり、また当社のVCNは幅広い応用を可能にしている。
論文 参考訳(メタデータ) (2020-03-15T12:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。