論文の概要: Bridging Human Concepts and Computer Vision for Explainable Face Verification
- arxiv url: http://arxiv.org/abs/2403.08789v1
- Date: Tue, 30 Jan 2024 09:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 08:16:13.556995
- Title: Bridging Human Concepts and Computer Vision for Explainable Face Verification
- Title(参考訳): 説明可能な顔認証のための人体概念のブリッジとコンピュータビジョン
- Authors: Miriam Doh, Caroline Mazini Rodrigues, Nicolas Boutry, Laurent Najman, Matei Mancas, Hugues Bersini,
- Abstract要約: 本稿では,顔認証アルゴリズムの解釈可能性を高めるために,コンピュータと人間の視覚を組み合わせるアプローチを提案する。
特に、機械が人間の意味領域をどう知覚するかを理解するための人間の知覚過程にインスピレーションを受けています。
- 参考スコア(独自算出の注目度): 2.9602845959184454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With Artificial Intelligence (AI) influencing the decision-making process of sensitive applications such as Face Verification, it is fundamental to ensure the transparency, fairness, and accountability of decisions. Although Explainable Artificial Intelligence (XAI) techniques exist to clarify AI decisions, it is equally important to provide interpretability of these decisions to humans. In this paper, we present an approach to combine computer and human vision to increase the explanation's interpretability of a face verification algorithm. In particular, we are inspired by the human perceptual process to understand how machines perceive face's human-semantic areas during face comparison tasks. We use Mediapipe, which provides a segmentation technique that identifies distinct human-semantic facial regions, enabling the machine's perception analysis. Additionally, we adapted two model-agnostic algorithms to provide human-interpretable insights into the decision-making processes.
- Abstract(参考訳): 人工知能(AI)は、Face Verificationのような機密性の高いアプリケーションの意思決定プロセスに影響を与えるため、決定の透明性、公平性、説明責任を保証することが基本である。
説明可能な人工知能(XAI)技術は、AI決定を明確にするために存在するが、これらの決定を人間に解釈できることは同様に重要である。
本稿では,顔認証アルゴリズムの解釈可能性を高めるために,コンピュータと人間の視覚を組み合わせたアプローチを提案する。
特に、人間の知覚プロセスにインスパイアされ、マシンが顔の比較作業中に人間の意味領域をどのように知覚するかを理解する。
私たちはMediapipeを使って、人間の意味の異なる顔領域を識別し、マシンの知覚分析を可能にするセグメンテーション技術を提供している。
さらに、意思決定プロセスに対する人間の解釈可能な洞察を提供するために、2つのモデルに依存しないアルゴリズムを適用した。
関連論文リスト
- From Pixels to Words: Leveraging Explainability in Face Recognition through Interactive Natural Language Processing [2.7568948557193287]
顔認識(FR)は深層学習の発展とともに大きく進歩し、いくつかの応用において高い精度を実現している。
これらのシステムの解釈可能性の欠如は、説明責任、公平性、信頼性に関する懸念を引き起こす。
モデルに依存しない説明可能な人工知能(XAI)と自然言語処理(NLP)技術を組み合わせることにより、FRモデルの説明可能性を高めるインタラクティブなフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T13:40:39Z) - Explaining Deep Face Algorithms through Visualization: A Survey [57.60696799018538]
本研究は、顔領域における説明可能性アルゴリズムの第一種メタ分析を行う。
既存のフェース説明可能性について概観し、フェースネットワークの構造と階層に関する貴重な知見を明らかにする。
論文 参考訳(メタデータ) (2023-09-26T07:16:39Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Toward Affective XAI: Facial Affect Analysis for Understanding
Explainable Human-AI Interactions [4.874780144224057]
この研究は、人々がXAIインターフェースと対話する際に、どの顔に影響を及ぼすかを特定することを目的としている。
また,顔の感情信号と参加者の説明的利用をリンクするためのマルチタスク機能埋め込みも開発した。
論文 参考訳(メタデータ) (2021-06-16T13:14:21Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Projection: A Mechanism for Human-like Reasoning in Artificial
Intelligence [6.218613353519724]
モデルから)トップダウン情報を利用する推論手法は、困難な状況における実体認識に有効であることが示されている。
投射は、様々な状況や困難な状況に知識を適用するという問題を解決するための鍵となるメカニズムである。
論文 参考訳(メタデータ) (2021-03-24T22:33:51Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。