論文の概要: xCos: An Explainable Cosine Metric for Face Verification Task
- arxiv url: http://arxiv.org/abs/2003.05383v3
- Date: Thu, 15 Jul 2021 13:38:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:21:16.165734
- Title: xCos: An Explainable Cosine Metric for Face Verification Task
- Title(参考訳): xCos: 顔認証タスクのための説明可能なコサインメトリック
- Authors: Yu-Sheng Lin, Zhe-Yu Liu, Yu-An Chen, Yu-Siang Wang, Ya-Liang Chang,
and Winston H. Hsu
- Abstract要約: 我々は、顔認識タスク、特にここでの顔認証についてXAI(説明可能なAI)について研究する。
我々は、多くの検証モデルにプラグインして意味のある説明を提供することができる学習可能なモジュールを備えた、説明可能なコサイン(xCos$)と呼ばれる新しい類似度指標を提案する。
提案手法がLFWおよび各種競合ベンチマークに与える影響を実証し, 顔認証のための新規かつ望ましくないモデル解釈性を提供するだけでなく, 既存の顔認証モデルに接続する際の精度も確保する。
- 参考スコア(独自算出の注目度): 24.86571839143786
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study the XAI (explainable AI) on the face recognition task, particularly
the face verification here. Face verification is a crucial task in recent days
and it has been deployed to plenty of applications, such as access control,
surveillance, and automatic personal log-on for mobile devices. With the
increasing amount of data, deep convolutional neural networks can achieve very
high accuracy for the face verification task. Beyond exceptional performances,
deep face verification models need more interpretability so that we can trust
the results they generate. In this paper, we propose a novel similarity metric,
called explainable cosine ($xCos$), that comes with a learnable module that can
be plugged into most of the verification models to provide meaningful
explanations. With the help of $xCos$, we can see which parts of the two input
faces are similar, where the model pays its attention to, and how the local
similarities are weighted to form the output $xCos$ score. We demonstrate the
effectiveness of our proposed method on LFW and various competitive benchmarks,
resulting in not only providing novel and desiring model interpretability for
face verification but also ensuring the accuracy as plugging into existing face
recognition models.
- Abstract(参考訳): 我々は、顔認識タスク、特にここでの顔認証についてXAI(説明可能なAI)について研究する。
顔認証は近年では重要なタスクであり、アクセス制御、監視、モバイルデバイスの自動パーソナルログインなど、多くのアプリケーションにデプロイされている。
データ量が増加するにつれて、深層畳み込みニューラルネットワークは顔認証タスクに対して非常に高い精度を達成することができる。
例外的なパフォーマンスに加えて、ディープフェイス検証モデルは、それらが生成した結果を信頼できるように、より解釈可能性を必要とします。
本稿では,多くの検証モデルに接続して有意義な説明を提供する学習可能なモジュールを組み込んだ,新しい類似度指標である explainsable cosine (xcos$)を提案する。
xCos$の助けを借りると、2つの入力面のどの部分が類似しているか、モデルが注意を払っているか、ローカルの類似性がどのように重み付けされ、出力$xCos$スコアを形成するかが分かる。
提案手法がLFWおよび各種競合ベンチマークに与える影響を実証し,顔認証のための新規かつ望ましくないモデル解釈性を提供するとともに,既存の顔認識モデルに接続する際の精度を確保する。
関連論文リスト
- Faceptor: A Generalist Model for Face Perception [52.8066001012464]
Faceptorは、よく設計されたシングルエンコーダのデュアルデコーダアーキテクチャを採用するために提案されている。
Faceptorへのレイヤアテンションにより、モデルが最適なレイヤから機能を適応的に選択して、望ましいタスクを実行することができる。
我々のトレーニングフレームワークは補助的な教師付き学習にも適用でき、年齢推定や表現認識といったデータスパースタスクの性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-03-14T15:42:31Z) - SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - SwinFace: A Multi-task Transformer for Face Recognition, Expression
Recognition, Age Estimation and Attribute Estimation [60.94239810407917]
本論文では,単一スウィントランスを用いた顔認識,表情認識,年齢推定,顔属性推定のための多目的アルゴリズムを提案する。
複数のタスク間の競合に対処するため、マルチレベルチャネル注意(MLCA)モジュールをタスク固有の分析に統合する。
実験の結果,提案したモデルでは顔の理解が良く,全てのタスクにおいて優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-22T15:38:39Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - FACE-AUDITOR: Data Auditing in Facial Recognition Systems [24.082527732931677]
顔画像を扱うスケーラビリティと能力のために、ショットベースの顔認識システムが注目されている。
顔画像の誤使用を防止するために、簡単なアプローチとして、生の顔画像を共有する前に修正する方法がある。
そこで本研究では,FACE-AUDITORの完全ツールキットを提案する。このツールキットは,少数ショットベースの顔認識モデルに問い合わせ,ユーザの顔画像のいずれかがモデルのトレーニングに使用されているかどうかを判断する。
論文 参考訳(メタデータ) (2023-04-05T23:03:54Z) - Exploring Large-scale Unlabeled Faces to Enhance Facial Expression
Recognition [12.677143408225167]
本研究では、ラベルのない顔データを用いて表現認識モデルを効果的に訓練する半教師付き学習フレームワークを提案する。
本手法では,顔認識データを完全に活用するために,信頼度を適応的に調整できる動的しきい値モジュールを用いる。
ABAW5 EXPRタスクでは,オフィシャル検証セットにおいて優れた結果を得た。
論文 参考訳(メタデータ) (2023-03-15T13:43:06Z) - Explainable Model-Agnostic Similarity and Confidence in Face
Verification [5.257115841810258]
本研究は,顔認識システムの説明に焦点をあてる。
まず、2つの入力画像間の顔の特徴距離に基づいて、これらのシステムに対する信頼度スコアを導入する。
第二に、より意味のある予測を得るための新しい可視化手法を確立する。
第三に、いくつかの最先端の顔認証データセットに対する信頼度スコアと説明マップを算出する。
論文 参考訳(メタデータ) (2022-11-24T17:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。