論文の概要: Task-Decoupled Image Inpainting Framework for Class-specific Object Remover
- arxiv url: http://arxiv.org/abs/2410.02894v1
- Date: Thu, 3 Oct 2024 18:32:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 05:05:01.755012
- Title: Task-Decoupled Image Inpainting Framework for Class-specific Object Remover
- Title(参考訳): クラス固有のオブジェクトリマインドのためのタスク分離型イメージインパインティングフレームワーク
- Authors: Changsuk Oh, H. Jin Kim,
- Abstract要約: 本稿では,2つの異なるインペイントモデルを生成するタスク分離型画像インペイントフレームワークを提案する。
対象クラスのオブジェクトを削除することに焦点を当てたクラス固有のオブジェクト除去器を得る。
実験により,提案したクラス固有のオブジェクト除去器は,画像インパインティングネットワークに基づくオブジェクト除去器よりも,目的のクラスオブジェクトを除去できることがわかった。
- 参考スコア(独自算出の注目度): 26.81218265405809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object removal refers to the process of erasing designated objects from an image while preserving the overall appearance. Existing works on object removal erase removal targets using image inpainting networks. However, image inpainting networks often generate unsatisfactory removal results. In this work, we find that the current training approach which encourages a single image inpainting model to handle both object removal and restoration tasks is one of the reasons behind such unsatisfactory result. Based on this finding, we propose a task-decoupled image inpainting framework which generates two separate inpainting models: an object restorer for object restoration tasks and an object remover for object removal tasks. We train the object restorer with the masks that partially cover the removal targets. Then, the proposed framework makes an object restorer to generate a guidance for training the object remover. Using the proposed framework, we obtain a class-specific object remover which focuses on removing objects of a target class, aiming to better erase target class objects than general object removers. We also introduce a data curation method that encompasses the image selection and mask generation approaches used to produce training data for the proposed class-specific object remover. Using the proposed curation method, we can simulate the scenarios where an object remover is trained on the data with object removal ground truth images. Experiments on multiple datasets show that the proposed class-specific object remover can better remove target class objects than object removers based on image inpainting networks.
- Abstract(参考訳): オブジェクトの削除(オブジェクトの削除)とは、画像から指定されたオブジェクトを消去し、全体的な外観を保存する過程を指す。
画像塗布ネットワークを用いたオブジェクト除去除去ターゲットの既存の作業。
しかし、画像インペイントネットワークは、しばしば不満足な除去結果をもたらす。
本研究では,物体の除去処理と復元処理の両方を扱う単一画像インペイントモデルを奨励する現在のトレーニング手法が,このような不満足な結果の要因の1つであることを明らかにする。
そこで本研究では,オブジェクト復元タスクのオブジェクト復元器と,オブジェクト除去タスクのオブジェクト除去器という,2つの別々のインペイントモデルを生成するタスク分離型画像インペイントフレームワークを提案する。
我々は、除去対象を部分的にカバーするマスクでオブジェクト復元器を訓練する。
そして、提案フレームワークはオブジェクトリカバリを作成し、オブジェクトリカバリをトレーニングするためのガイダンスを生成する。
提案するフレームワークを用いて,対象クラスのオブジェクトを削除することに焦点を当てたクラス固有オブジェクト除去器を得る。
また,提案するクラス固有オブジェクト除去器のトレーニングデータを生成するために,画像選択とマスク生成アプローチを含むデータキュレーション手法を提案する。
提案手法を用いることで,オブジェクト除去対象の真理画像を用いてオブジェクト除去者がデータ上で訓練されるシナリオをシミュレートすることができる。
複数のデータセットの実験により、提案したクラス固有のオブジェクト除去器は、画像のインペイントネットワークに基づくオブジェクト除去器よりも、ターゲットクラスオブジェクトを除去できることが示された。
関連論文リスト
- Diffree: Text-Guided Shape Free Object Inpainting with Diffusion Model [81.96954332787655]
テキスト制御のみによるテキスト誘導オブジェクトの追加を容易にするテキスト・ツー・イメージ(T2I)モデルであるDiffreeを紹介する。
実験では、Diffreeはバックグラウンドの一貫性、空間、オブジェクトの関連性、品質を維持しながら、高い成功率を持つ新しいオブジェクトを追加します。
論文 参考訳(メタデータ) (2024-07-24T03:58:58Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - Object Remover Performance Evaluation Methods using Class-wise Object Removal Images [29.28862692741578]
オブジェクト除去結果の質を測定して、オブジェクト除去器の性能を定量的に評価する。
そこで本研究では,オブジェクト除去基盤真理を用いたデータセットを作成し,既存の手法による評価を原画像を用いて比較する。
対象物除去器の性能を評価するための新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-04-17T06:40:47Z) - AURA : Automatic Mask Generator using Randomized Input Sampling for Object Removal [26.81218265405809]
本稿では,オフザシェルフ・イメージ・インパインティング・ネットワークを用いて,オブジェクトをよりよく除去するための入力マスクの生成に焦点をあてる。
本稿では,AI (XAI) 法にヒントを得た自動マスク生成手法を提案する。
実験により,本手法はセマンティックセグメンテーションマップから生成されたマスクよりも,ターゲットクラスオブジェクトの除去性能が向上していることが確認された。
論文 参考訳(メタデータ) (2023-05-13T07:51:35Z) - Inst-Inpaint: Instructing to Remove Objects with Diffusion Models [18.30057229657246]
本研究では,自然言語入力に基づいて除去対象を推定し,同時に除去する画像インペイントアルゴリズムに興味を持つ。
本稿では,テキストプロンプトとして与えられた命令に基づいて画像からオブジェクトを除去する新しいインペイントフレームワークInst-Inpaintを提案する。
論文 参考訳(メタデータ) (2023-04-06T17:29:50Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Shape-guided Object Inpainting [84.18768707298105]
本研究は,新しい画像インペイント,すなわち形状誘導物体インペイントについて研究する。
本研究では,新しいデータ作成手法と新しいコンテキストオブジェクト生成器(CogNet)を提案する。
実験により,提案手法は視覚的外観と意味的意味の両方の観点からコンテキストに適合する現実的なオブジェクトを生成することができることが示された。
論文 参考訳(メタデータ) (2022-04-16T17:19:11Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Disassembling Object Representations without Labels [75.2215716328001]
本研究では,オブジェクト表現を分解する新しい表現学習タスクについて検討する。
分解は、学習した表現におけるカテゴリ固有のモジュラリティを可能にする。
我々は、非教師なし分解オブジェクト表現(UDOR)という、非教師なしの非教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-03T08:23:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。