論文の概要: Unsupervised Domain Attention Adaptation Network for Caricature
Attribute Recognition
- arxiv url: http://arxiv.org/abs/2007.09344v1
- Date: Sat, 18 Jul 2020 06:38:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:44:18.591986
- Title: Unsupervised Domain Attention Adaptation Network for Caricature
Attribute Recognition
- Title(参考訳): キャカチュア属性認識のための教師なしドメイン注意適応ネットワーク
- Authors: Wen Ji, Kelei He, Jing Huo, Zheng Gu, Yang Gao
- Abstract要約: キャラクチュア属性は、心理学と神経科学の研究に役立つ特徴的な顔の特徴を提供する。
注釈付き画像の量を持つ顔写真属性データセットとは異なり、似顔絵属性のアノテーションは稀である。
本稿では,画像の属性学習のための特徴属性データセットであるWebCariAを提案する。
- 参考スコア(独自算出の注目度): 23.95731281719786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Caricature attributes provide distinctive facial features to help research in
Psychology and Neuroscience. However, unlike the facial photo attribute
datasets that have a quantity of annotated images, the annotations of
caricature attributes are rare. To facility the research in attribute learning
of caricatures, we propose a caricature attribute dataset, namely WebCariA.
Moreover, to utilize models that trained by face attributes, we propose a novel
unsupervised domain adaptation framework for cross-modality (i.e., photos to
caricatures) attribute recognition, with an integrated inter- and intra-domain
consistency learning scheme. Specifically, the inter-domain consistency
learning scheme consisting an image-to-image translator to first fill the
domain gap between photos and caricatures by generating intermediate image
samples, and a label consistency learning module to align their semantic
information. The intra-domain consistency learning scheme integrates the common
feature consistency learning module with a novel attribute-aware
attention-consistency learning module for a more efficient alignment. We did an
extensive ablation study to show the effectiveness of the proposed method. And
the proposed method also outperforms the state-of-the-art methods by a margin.
The implementation of the proposed method is available at
https://github.com/KeleiHe/DAAN.
- Abstract(参考訳): 画像特性は、心理学と神経科学の研究に役立つ特徴的な顔の特徴を提供する。
しかし、注釈付き画像の量を持つ顔写真属性データセットとは異なり、似顔絵属性のアノテーションは稀である。
画像の属性学習のための研究を行うために,WebCariAという特徴属性データセットを提案する。
さらに,顔属性によって訓練されたモデルを活用するために,ドメイン間の整合性学習とドメイン間の整合性学習を融合した,クロスモーダルな属性認識のための新しい教師なしドメイン適応フレームワークを提案する。
具体的には、画像と画像の間の領域ギャップを、中間画像サンプルを生成して埋める画像間変換器と、それらの意味情報を整合させるラベル整合学習モジュールとからなるドメイン間整合学習スキームである。
ドメイン内一貫性学習スキームは、共通機能一貫性学習モジュールと、新しい属性認識型注意一貫性学習モジュールを統合し、より効率的なアライメントを実現する。
提案手法の有効性について広範囲にわたるアブレーション研究を行った。
また,提案手法は最先端の手法をマージンで上回っている。
提案手法の実装はhttps://github.com/KeleiHe/DAANで公開されている。
関連論文リスト
- AKGNet: Attribute Knowledge-Guided Unsupervised Lung-Infected Area Segmentation [25.874281336821685]
肺疾患の重症度を評価するためには, 肺感染症領域のセグメンテーションが重要である。
肺に感染した領域を非教師的に分類するための新しい属性知識誘導フレームワークを提案する。
AKGNetは、テキスト属性知識の学習、属性イメージ間の融合、高信頼に基づく擬似ラベル探索を容易にする。
論文 参考訳(メタデータ) (2024-04-17T02:36:02Z) - Improving Generalization of Image Captioning with Unsupervised Prompt
Learning [63.26197177542422]
画像キャプションの一般化(GeneIC)は、アノテーション付きデータを必要とせずに、ターゲットドメインのドメイン固有のプロンプトベクトルを学習する。
GeneICは、学習済みのContrastive Language-Image Pre-Training (CLIP)モデルと視覚的および言語的モダリティを一致させる。
論文 参考訳(メタデータ) (2023-08-05T12:27:01Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - EAML: Ensemble Self-Attention-based Mutual Learning Network for Document
Image Classification [1.1470070927586016]
我々は、アンサンブルトレーニング可能なネットワークのブロックとして機能する自己アテンションベースの融合モジュールを設計する。
トレーニング段階を通して、画像とテキストの区別された特徴を同時に学習することができる。
文書画像分類を行うための自己注意に基づく融合モジュールとともに、相互学習アプローチを活用するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-11T16:05:03Z) - Adapt and Align to Improve Zero-Shot Sketch-Based Image Retrieval [85.39613457282107]
スケッチに基づく画像検索のクロスドメイン性は困難である。
重要な課題に対処する効果的なAdaptとAlignのアプローチを提案する。
ゼロショットシナリオにおける画像テキスト基盤モデル(例えばCLIP)の最近の進歩に触発されて、学習したイメージの埋め込みを、より意味的なテキスト埋め込みと明確に整合させ、見知らぬクラスから見つからないクラスへの所望の知識伝達を実現する。
論文 参考訳(メタデータ) (2023-05-09T03:10:15Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - Semi-supervised Learning with a Teacher-student Network for Generalized
Attribute Prediction [7.462336024223667]
本稿では,視覚特性予測問題を解くための半教師付き学習について述べる。
提案手法は,ファッション属性予測のための様々なベンチマーク上での競合性能を実現する。
論文 参考訳(メタデータ) (2020-07-14T02:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。