論文の概要: Image Sentiment Transfer
- arxiv url: http://arxiv.org/abs/2006.11337v1
- Date: Fri, 19 Jun 2020 19:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:49:18.567363
- Title: Image Sentiment Transfer
- Title(参考訳): イメージ感情伝達
- Authors: Tianlang Chen, Wei Xiong, Haitian Zheng, Jiebo Luo
- Abstract要約: 我々は,イメージの感情伝達という,重要ではあるが未調査の研究課題を導入する。
本稿では,オブジェクトレベルでイメージの感情伝達を行う,効果的で柔軟なフレームワークを提案する。
中心となるオブジェクトレベルの感情伝達のために、我々は新しい感性認識型GAN(SentiGAN)を提案する。
- 参考スコア(独自算出の注目度): 84.91653085312277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce an important but still unexplored research task --
image sentiment transfer. Compared with other related tasks that have been
well-studied, such as image-to-image translation and image style transfer,
transferring the sentiment of an image is more challenging. Given an input
image, the rule to transfer the sentiment of each contained object can be
completely different, making existing approaches that perform global image
transfer by a single reference image inadequate to achieve satisfactory
performance. In this paper, we propose an effective and flexible framework that
performs image sentiment transfer at the object level. It first detects the
objects and extracts their pixel-level masks, and then performs object-level
sentiment transfer guided by multiple reference images for the corresponding
objects. For the core object-level sentiment transfer, we propose a novel
Sentiment-aware GAN (SentiGAN). Both global image-level and local object-level
supervisions are imposed to train SentiGAN. More importantly, an effective
content disentanglement loss cooperating with a content alignment step is
applied to better disentangle the residual sentiment-related information of the
input image. Extensive quantitative and qualitative experiments are performed
on the object-oriented VSO dataset we create, demonstrating the effectiveness
of the proposed framework.
- Abstract(参考訳): 本研究では,重要な研究課題である感情伝達について紹介する。
画像間の変換や画像スタイルの転送など、他のよく研究されているタスクと比較すると、イメージの感情の伝達はより困難である。
入力画像が与えられると、各対象の感情を転送するルールは完全に異なり、単一の参照画像によるグローバル画像転送が不十分な既存のアプローチが満足のいく性能を達成する。
本稿では,オブジェクトレベルで画像の感情伝達を行う,効果的で柔軟なフレームワークを提案する。
まずオブジェクトを検出し、ピクセルレベルのマスクを抽出し、対応するオブジェクトの複数の参照イメージによって誘導されたオブジェクトレベルの感情伝達を実行する。
中心となるオブジェクトレベルの感情伝達には,新しい感性認識型GAN(SentiGAN)を提案する。
グローバルイメージレベルとローカルオブジェクトレベルの両方を、SentiGANのトレーニングに課している。
さらに、コンテンツアライメントステップと協調する効果的なコンテンツアンタングルメント損失を適用し、入力画像の残感関連情報をより良いアンタングル化させる。
提案するフレームワークの有効性を実証したオブジェクト指向VSOデータセットに対して,大規模な定量的および定性的な実験を行った。
関連論文リスト
- Transformer based Multitask Learning for Image Captioning and Object
Detection [13.340784876489927]
本研究は,画像キャプションとオブジェクト検出を結合モデルに組み合わせた,新しいマルチタスク学習フレームワークを提案する。
我々は,2つのタスクを共同で訓練するためのTICOD, Transformer-based Image Captioning, Object Detectionモデルを提案する。
我々のモデルはBERTScoreの3.65%の改善によって、画像キャプション文学のベースラインを上回ります。
論文 参考訳(メタデータ) (2024-03-10T19:31:13Z) - Situational Perception Guided Image Matting [16.1897179939677]
本研究では,マットアノテーションの主観バイアスを緩和する状況認識ガイド画像マッチング(SPG-IM)手法を提案する。
SPG-IMは、オブジェクト間およびオブジェクト間サリエンシをよりよく関連付けることができ、画像マッチングの主観的性質を補うことができる。
論文 参考訳(メタデータ) (2022-04-20T07:35:51Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Panoptic-based Object Style-Align for Image-to-Image Translation [2.226472061870956]
本稿では,画像から画像への変換を行うために,パノプティクスに基づくオブジェクトスタイル適応生成ネットワーク(POSA-GAN)を提案する。
提案手法は,異なる競合手法と体系的に比較し,画像の画質とオブジェクト認識性能に大きな改善を加えた。
論文 参考訳(メタデータ) (2021-12-03T14:28:11Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Global Image Sentiment Transfer [90.26415735432576]
提案するフレームワークは,参照画像検索ステップとグローバル感情伝達ステップから構成される。
検索した参照画像は、知覚的損失に基づいてアルゴリズムに対してより内容に関連がある。
提案した感情伝達アルゴリズムは、入力画像のコンテンツ構造を確実に保ちながら、画像の感情を伝達することができる。
論文 参考訳(メタデータ) (2020-06-22T03:22:25Z) - Unsupervised Learning of Landmarks based on Inter-Intra Subject
Consistencies [72.67344725725961]
本稿では,物体間ランドマーク成分を顔画像に組み込むことにより,画像ランドマーク発見のための教師なし学習手法を提案する。
これは、補助的な主題関連構造に基づいて、元の主題のランドマークを変換するオブジェクト間マッピングモジュールによって達成される。
変換された画像から元の被写体に戻るために、ランドマーク検出器は、対のオブジェクト内画像と対のオブジェクト間画像の両方に一貫した意味を含む空間的位置を学習せざるを得ない。
論文 参考訳(メタデータ) (2020-04-16T20:38:16Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。