論文の概要: Inharmonious Region Localization by Magnifying Domain Discrepancy
- arxiv url: http://arxiv.org/abs/2209.15368v1
- Date: Fri, 30 Sep 2022 10:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 15:52:31.918198
- Title: Inharmonious Region Localization by Magnifying Domain Discrepancy
- Title(参考訳): 拡大領域差による不調和領域の局在
- Authors: Jing Liang, Li Niu, Penghao Wu, Fengjun Guo, Teng Long
- Abstract要約: 不調和領域の局在化は、周囲の背景と相容れない合成画像における領域の局在化を目的としている。
本研究では,入力画像が別の色空間に変換され,不調和領域と背景領域との領域差が増大する傾向にある。
カラーマッピングモジュールと不調和領域ローカライゼーションネットワークからなる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.661683923953085
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Inharmonious region localization aims to localize the region in a synthetic
image which is incompatible with surrounding background. The inharmony issue is
mainly attributed to the color and illumination inconsistency produced by image
editing techniques. In this work, we tend to transform the input image to
another color space to magnify the domain discrepancy between inharmonious
region and background, so that the model can identify the inharmonious region
more easily. To this end, we present a novel framework consisting of a color
mapping module and an inharmonious region localization network, in which the
former is equipped with a novel domain discrepancy magnification loss and the
latter could be an arbitrary localization network. Extensive experiments on
image harmonization dataset show the superiority of our designed framework. Our
code is available at
https://github.com/bcmi/MadisNet-Inharmonious-Region-Localization.
- Abstract(参考訳): 不調和な領域局在は、周囲の背景と相容れない合成画像に領域を局在化することを目的としている。
この不調和問題は、主に画像編集技術による色と照明の不整合に起因する。
本研究では,入力画像から別の色空間へ変換し,非調和領域と背景の領域差を拡大し,不調和領域をより容易に識別する手法を提案する。
そこで本研究では,カラーマッピングモジュールと非調和領域局在化ネットワークからなる新しい枠組みを提案する。
画像調和データセットに関する大規模な実験は、我々の設計したフレームワークの優位性を示している。
私たちのコードはhttps://github.com/bcmi/MadisNet-Inharmonious-Region-Localizationで利用可能です。
関連論文リスト
- LIME: Localized Image Editing via Attention Regularization in Diffusion
Models [74.3811832586391]
本稿では,ユーザ指定の関心領域 (RoI) や追加のテキスト入力を必要としない拡散モデルにおける局所化画像編集のためのLIMEを提案する。
本手法では,事前学習した手法と単純なクラスタリング手法を用いて,正確なセマンティックセグメンテーションマップを得る。
そこで本研究では,RoIにおける非関係なクロスアテンションスコアをデノナイジングステップ中にペナライズし,局所的な編集を確実にする新しいクロスアテンション正規化手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T18:59:59Z) - Learning Global-aware Kernel for Image Harmonization [55.614444363743765]
画像調和は、背景を基準として前景画素を適応的に調整することで、合成画像の視覚的不整合問題を解決することを目的としている。
既存の手法では、前景と背景の間の局所的な色変換や領域マッチングが採用されている。
本稿では,長距離バックグラウンド参照を包括的に考慮した地域調和のための,GKNet(Global-Aware Kernel Network)を提案する。
論文 参考訳(メタデータ) (2023-05-19T13:49:02Z) - Towards Coherent Image Inpainting Using Denoising Diffusion Implicit
Models [43.83732051916894]
ミスマッチを伴わずに全体像をコヒーレントに描けるCOPAINTを提案する。
COPAINTはまた、ベイジアンフレームワークを使用して、明らかにされていない領域と未公開領域の両方を共同で修正している。
実験により,COPAINTは,客観的,主観的両方の指標の下で,既存の拡散法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-04-06T18:35:13Z) - Region-Aware Diffusion for Zero-shot Text-driven Image Editing [78.58917623854079]
本稿では,エンティティレベルの画像編集のための領域認識拡散モデル(RDM)を提案する。
画像の忠実度と推論速度のバランスをとるために,集中拡散パイプラインを設計する。
その結果、RDMは、視覚的品質、全体的な調和、非編集領域のコンテンツ保存、テキストイメージのセマンティック一貫性において、従来のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2023-02-23T06:20:29Z) - Inharmonious Region Localization with Auxiliary Style Feature [19.146209624835322]
不調和領域の局在化は、不調和領域を合成画像でローカライズすることを目的としている。
識別的特徴を抽出する新しいカラーマッピングモジュールとスタイル特徴損失を提案する。
また,抽出したスタイルの特徴に基づいて,不調和領域の局所化を導く新しいスタイル投票モジュールを提案する。
論文 参考訳(メタデータ) (2022-10-05T05:37:35Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - Image Harmonization with Region-wise Contrastive Learning [51.309905690367835]
本稿では,外部スタイルの融合と領域単位のコントラスト学習方式を備えた新しい画像調和フレームワークを提案する。
提案手法は, 前景と背景の相互情報を最大化することにより, 対応する正と負のサンプルをまとめることを試みる。
論文 参考訳(メタデータ) (2022-05-27T15:46:55Z) - Image Harmonization by Matching Regional References [10.249228010611617]
最近の画像調和法は, 一般的にグローバルな背景の出現パターンを要約し, 位置差のないグローバルな前景に適用する。
実際の画像では、異なる領域の外観(照度、色温度、彩度、色調、テクスチャなど)が著しく変化する。
外観を世界中に伝達する従来手法は最適ではない。
論文 参考訳(メタデータ) (2022-04-10T16:23:06Z) - GLocal: Global Graph Reasoning and Local Structure Transfer for Person
Image Generation [2.580765958706854]
我々は、人像生成、すなわち、腐敗したテクスチャや異なるポーズなど、様々な条件下で人像を生成することに焦点を当てる。
本稿では,異なる意味領域間のスタイル相互相関を世界規模で推論することで,咬合認識のテクスチャ推定を改善するためのGLocalフレームワークを提案する。
局所構造情報保存のために,さらにソース画像の局所構造を抽出し,局所構造転送により生成画像に復元する。
論文 参考訳(メタデータ) (2021-12-01T03:54:30Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。