論文の概要: Supervised Attribute Information Removal and Reconstruction for Image
Manipulation
- arxiv url: http://arxiv.org/abs/2207.06555v1
- Date: Wed, 13 Jul 2022 23:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 05:58:34.335408
- Title: Supervised Attribute Information Removal and Reconstruction for Image
Manipulation
- Title(参考訳): 画像操作のための属性情報削除と再構成
- Authors: Nannan Li and Bryan A. Plummer
- Abstract要約: 本稿では,そのような情報の隠蔽を防止する属性情報除去・再構築ネットワークを提案する。
我々は,DeepFashion Synthesis,DeepFashion Fine-fine Attribute,CelebA,CelebA-HQなど,さまざまな属性を持つ4つの多様なデータセットに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 15.559224431459551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of attribute manipulation is to control specified attribute(s) in
given images. Prior work approaches this problem by learning disentangled
representations for each attribute that enables it to manipulate the encoded
source attributes to the target attributes. However, encoded attributes are
often correlated with relevant image content. Thus, the source attribute
information can often be hidden in the disentangled features, leading to
unwanted image editing effects. In this paper, we propose an Attribute
Information Removal and Reconstruction (AIRR) network that prevents such
information hiding by learning how to remove the attribute information
entirely, creating attribute excluded features, and then learns to directly
inject the desired attributes in a reconstructed image. We evaluate our
approach on four diverse datasets with a variety of attributes including
DeepFashion Synthesis, DeepFashion Fine-grained Attribute, CelebA and
CelebA-HQ, where our model improves attribute manipulation accuracy and top-k
retrieval rate by 10% on average over prior work. A user study also reports
that AIRR manipulated images are preferred over prior work in up to 76% of
cases.
- Abstract(参考訳): 属性操作の目標は、所定の画像内の特定の属性を制御することである。
以前の作業では、対象属性に対するエンコードされたソース属性の操作を可能にする各属性の異種表現を学習することで、この問題にアプローチしている。
しかし、エンコードされた属性はしばしば関連する画像内容と関連付けられる。
したがって、ソース属性情報は、しばしば歪んだ特徴の中に隠され、不要な画像編集効果をもたらす。
本稿では,属性情報を完全に除去する方法を学習し,属性を除外した特徴を生成し,その属性を直接再構成した画像に注入する方法を学習することにより,属性情報削除・再構成(AIRR)ネットワークを提案する。
提案手法は,DeepFashion Synthesis, DeepFashion Fine-fine Attribute, CelebA, CelebA-HQの4つの属性を持つ多種多様なデータセットに対して評価を行った。
ユーザ調査によると、AIRRで操作された画像は、最大76%のケースで以前の作業よりも好まれている。
関連論文リスト
- Predicting Scores of Various Aesthetic Attribute Sets by Learning from
Overall Score Labels [54.63611854474985]
本稿では,画像属性ラベルを特徴抽出器に置き換えることを提案する。
異なるタスクのネットワークを使用して、F2Sモデルに属性機能を提供します。
本手法は, 各種の美的属性セットに対して, 総合的な美的スコアのみを用いて有意な属性スコアを学習できるようにする。
論文 参考訳(メタデータ) (2023-12-06T01:41:49Z) - Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - UMAAF: Unveiling Aesthetics via Multifarious Attributes of Images [16.647573404422175]
画像の絶対属性と相対属性の両方をモデル化する統一多属性美意識評価フレームワーク(UMAAF)を提案する。
UMAAFは、TAD66KとAVAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-19T11:57:01Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation [22.691709684780292]
提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
論文 参考訳(メタデータ) (2021-11-28T13:50:20Z) - AdaTag: Multi-Attribute Value Extraction from Product Profiles with
Adaptive Decoding [55.89773725577615]
本稿ではアダプティブデコーディングを用いて属性抽出を行うAdaTagを提案する。
実世界のeコマースデータセットに関する我々の実験は、以前の方法よりも顕著に改善されたことを示している。
論文 参考訳(メタデータ) (2021-06-04T07:54:11Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - Prominent Attribute Modification using Attribute Dependent Generative
Adversarial Network [4.654937118111992]
提案手法は,2つのジェネレータと2つの識別器を基本とし,2つの属性の実際の表現と2つのバイナリを利用する。
CelebAデータセットを用いた実験により,他の顔の細部を無傷に保存し,複数の属性の編集を効果的に行うことができた。
論文 参考訳(メタデータ) (2020-04-24T13:38:05Z) - MulGAN: Facial Attribute Editing by Exemplar [2.272764591035106]
遅延特徴空間の予め定義された領域に画像の属性関連情報をエンコードする手法では、逆の属性を持つ一対の画像を列車モデルへの入力として利用する。
それらには、3つの制限がある:(1)モデルが入力として反対の属性を持つ一対のイメージを使用して訓練されなければならない;(2)複数の属性を例によって編集する能力の弱い;(3)画像生成の質が悪い。
論文 参考訳(メタデータ) (2019-12-28T04:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。