論文の概要: TeG-DG: Textually Guided Domain Generalization for Face Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2311.18420v1
- Date: Thu, 30 Nov 2023 10:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 17:05:37.445874
- Title: TeG-DG: Textually Guided Domain Generalization for Face Anti-Spoofing
- Title(参考訳): TeG-DG:Face Anti-Spoofingのためのテキストガイド付きドメイン一般化
- Authors: Lianrui Mu, Jianhong Bai, Xiaoxuan He, Jiangnan Ye, Xiaoyu Liang,
Yuchen Yang, Jiedong Zhuang, Haoji Hu
- Abstract要約: 既存の方法は、様々な訓練領域からドメイン不変の特徴を抽出することを目的としている。
抽出された特徴は、必然的に残差スタイルの特徴バイアスを含んでおり、その結果、一般化性能が劣る。
本稿では,テキスト情報をドメイン間アライメントに有効活用するテキストガイド型ドメイン一般化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.830873674673828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enhancing the domain generalization performance of Face Anti-Spoofing (FAS)
techniques has emerged as a research focus. Existing methods are dedicated to
extracting domain-invariant features from various training domains. Despite the
promising performance, the extracted features inevitably contain residual style
feature bias (e.g., illumination, capture device), resulting in inferior
generalization performance. In this paper, we propose an alternative and
effective solution, the Textually Guided Domain Generalization (TeG-DG)
framework, which can effectively leverage text information for cross-domain
alignment. Our core insight is that text, as a more abstract and universal form
of expression, can capture the commonalities and essential characteristics
across various attacks, bridging the gap between different image domains.
Contrary to existing vision-language models, the proposed framework is
elaborately designed to enhance the domain generalization ability of the FAS
task. Concretely, we first design a Hierarchical Attention Fusion (HAF) module
to enable adaptive aggregation of visual features at different levels; Then, a
Textual-Enhanced Visual Discriminator (TEVD) is proposed for not only better
alignment between the two modalities but also to regularize the classifier with
unbiased text features. TeG-DG significantly outperforms previous approaches,
especially in situations with extremely limited source domain data (~14% and
~12% improvements on HTER and AUC respectively), showcasing impressive few-shot
performance.
- Abstract(参考訳): Face Anti-Spoofing (FAS) 技術のドメイン一般化性能の向上が研究の焦点となっている。
既存の方法は、さまざまなトレーニングドメインからドメイン不変な特徴を抽出することに特化している。
有望な性能にもかかわらず、抽出された特徴は必然的に残留スタイルの特徴バイアス(例えば照明、捕獲装置)を含むため、一般化性能は劣る。
本稿では,クロスドメインアライメントのためのテキスト情報を有効に活用できる,テキスト案内型ドメイン一般化(teg-dg)フレームワークを提案する。
私たちの中核的な洞察は、テキストはより抽象的で普遍的な表現形式であり、様々な攻撃の共通点と本質的な特徴を捉え、異なる画像領域間のギャップを埋めることができるということです。
既存の視覚言語モデルとは対照的に,提案フレームワークはFASタスクの領域一般化能力を高めるために精巧に設計されている。
具体的には、まず階層型注意融合(HAF)モジュールを設計し、異なるレベルにおける視覚的特徴の適応的集約を可能にする。
teg-dgは、特に非常に限られたソースドメインデータ(それぞれhterとaucで14%と12%の改善)の状況において、以前のアプローチを大きく上回っている。
関連論文リスト
- Language Guided Domain Generalized Medical Image Segmentation [68.93124785575739]
単一ソースドメインの一般化は、より信頼性が高く一貫性のあるイメージセグメンテーションを現実の臨床環境にわたって約束する。
本稿では,テキストエンコーダ機能によって案内されるコントラスト学習機構を組み込むことで,テキスト情報を明確に活用する手法を提案する。
文献における既存手法に対して,本手法は良好な性能を発揮する。
論文 参考訳(メタデータ) (2024-04-01T17:48:15Z) - HCVP: Leveraging Hierarchical Contrastive Visual Prompt for Domain
Generalization [69.33162366130887]
ドメイン一般化(DG)は、不変の機能を学ぶことによって、目に見えないシナリオに優れた機械学習モデルを作成するための取り組みである。
モデルにドメインレベルとタスク固有の特性を補足する新しい手法を提案する。
このアプローチは、特定の特徴から不変な特徴をより効果的に分離し、一般化を促進することを目的としている。
論文 参考訳(メタデータ) (2024-01-18T04:23:21Z) - MetaDefa: Meta-learning based on Domain Enhancement and Feature
Alignment for Single Domain Generalization [12.095382249996032]
モデル一般化性能を改善するために,ドメイン拡張と特徴アライメント(MetaDefa)に基づくメタラーニング手法を提案する。
本稿では、ソース領域と拡張領域の機能空間間の類似のターゲット領域に着目し、ドメイン不変性について検討する。
公開された2つのデータセットに対する大規模な実験により、MetaDefaは未知の複数のターゲットドメインにおいて、大きな一般化パフォーマンスのアドバンテージを持つことが示された。
論文 参考訳(メタデータ) (2023-11-27T15:13:02Z) - Unified Domain Adaptive Semantic Segmentation [96.74199626935294]
Unsupervised Adaptive Domain Semantic (UDA-SS)は、ラベル付きソースドメインからラベル付きターゲットドメインに監督を移すことを目的としている。
本稿では,特徴量と特徴量との相違に対処するQuad-directional Mixup(QuadMix)法を提案する。
提案手法は,4つの挑戦的UDA-SSベンチマークにおいて,最先端の成果を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-11-22T09:18:49Z) - Towards Domain-Specific Features Disentanglement for Domain
Generalization [23.13095840134744]
そこで本研究では,見過ごされがちな領域特化特徴を生かした,新しいコントラッシブ・ベース・ディコンタンジメント法CDDGを提案する。
具体的には、CDDGは、潜在空間においてそれらを活用することによって、固有の排他的特徴を分離することを学ぶ。
各種ベンチマークデータセットを用いて行った実験は,他の最先端手法と比較して,本手法の優位性を示した。
論文 参考訳(メタデータ) (2023-10-04T17:51:02Z) - TDG: Text-guided Domain Generalization [10.322052096998728]
我々は、テキスト誘導ドメイン一般化(TDG)パラダイムをドメイン一般化のために開発する。
まず、新しいドメイン関連単語で現在のドメインの記述を拡張するために、自動単語生成手法を考案する。
そして,提案手法により生成したドメイン情報をテキスト特徴空間に埋め込む。
最後に、入力画像特徴と生成されたテキスト特徴の両方を利用して、未確認のターゲットドメインをうまく一般化する特別な設計の分類器を訓練する。
論文 参考訳(メタデータ) (2023-08-19T07:21:02Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Language-aware Domain Generalization Network for Cross-Scene
Hyperspectral Image Classification [15.842081807249416]
ハイパースペクトル画像分類における言語モードの有効性を検討する必要がある。
大規模な事前学習画像テキスト基盤モデルは、様々なダウンストリームアプリケーションで優れた性能を示している。
言語対応ドメイン一般化ネットワーク(LDGnet)を提案する。
論文 参考訳(メタデータ) (2022-09-06T10:06:10Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - Feature Alignment and Restoration for Domain Generalization and
Adaptation [93.39253443415392]
クロスドメイン機能アライメントは、ドメイン不変表現を学ぶために、異なるドメインの特徴分布を抽出するために広く研究されてきた。
本稿では,FAR(Feature Alignment and Restoration)と呼ばれる統合フレームワークを提案する。
複数の分類ベンチマークの実験は、ドメインの一般化と教師なしドメインの適応の両方のためのFARフレームワークの性能と強力な一般化を実証している。
論文 参考訳(メタデータ) (2020-06-22T05:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。