論文の概要: Restricted Receptive Fields for Face Verification
- arxiv url: http://arxiv.org/abs/2510.10753v1
- Date: Sun, 12 Oct 2025 18:46:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.094618
- Title: Restricted Receptive Fields for Face Verification
- Title(参考訳): 顔認証のための制限された受容場
- Authors: Kagan Ozturk, Aman Bhatta, Haiyu Wu, Patrick Flynn, Kevin W. Bowyer,
- Abstract要約: 我々は、世界的類似性を制限された受容場からの貢献に分解する顔類似度指標を提案する。
本手法は,2つの顔画像間の類似度をパッチレベルの類似度スコアの和として定義する。
提案手法は,112x112顔画像中の28x28程度のパッチであっても,競合検証性能を実現する。
- 参考スコア(独自算出の注目度): 12.782971081614322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how deep neural networks make decisions is crucial for analyzing their behavior and diagnosing failure cases. In computer vision, a common approach to improve interpretability is to assign importance to individual pixels using post-hoc methods. Although they are widely used to explain black-box models, their fidelity to the model's actual reasoning is uncertain due to the lack of reliable evaluation metrics. This limitation motivates an alternative approach, which is to design models whose decision processes are inherently interpretable. To this end, we propose a face similarity metric that breaks down global similarity into contributions from restricted receptive fields. Our method defines the similarity between two face images as the sum of patch-level similarity scores, providing a locally additive explanation without relying on post-hoc analysis. We show that the proposed approach achieves competitive verification performance even with patches as small as 28x28 within 112x112 face images, and surpasses state-of-the-art methods when using 56x56 patches.
- Abstract(参考訳): ディープニューラルネットワークがどのように意思決定を行うかを理解することは、その振る舞いを分析し、障害ケースを診断するために不可欠である。
コンピュータビジョンにおいて、解釈可能性を改善するための一般的なアプローチは、ポストホック法を用いて個々のピクセルに重要度を割り当てることである。
ブラックボックスモデルを説明するために広く使われているが、信頼性の高い評価指標が欠如しているため、モデルの実際の推論に対する忠実さは不確実である。
この制限は、決定プロセスが本質的に解釈可能なモデルの設計という、別のアプローチを動機付けている。
この目的のために、世界的類似性を制限された受容場からの貢献に分解する顔類似度指標を提案する。
本手法は,2つの顔画像間の類似度をパッチレベルの類似度スコアの和として定義し,ポストホック解析に頼らずに局所的な付加的説明を提供する。
提案手法は、112x112の顔画像中28x28のパッチであっても競合検証性能を達成でき、56x56パッチを使用する場合の最先端手法を超越することを示す。
関連論文リスト
- A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - Classification Metrics for Image Explanations: Towards Building Reliable XAI-Evaluations [0.24578723416255752]
解像度法は、入力画像に対して(超)画素単位の特徴属性スコアを提供する。
新たな評価指標を開発し,イメージネット上で一般的な評価手法をベンチマークした。
心理測定テストの概念に基づく,そのような指標の信頼性評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T16:37:50Z) - NubbleDrop: A Simple Way to Improve Matching Strategy for Prompted One-Shot Segmentation [2.2559617939136505]
マッチング戦略の有効性とロバスト性を高めるための,単純で訓練のない手法を提案する。
中心となる概念は、マッチングプロセス中にランダムに特徴チャネル(0に設定する)をドロップすることである。
この手法は、病理的なヌブルの破棄を模倣し、他の類似性コンピューティングのシナリオにシームレスに適用することができる。
論文 参考訳(メタデータ) (2024-05-19T08:00:38Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Composed Image Retrieval with Text Feedback via Multi-grained
Uncertainty Regularization [73.04187954213471]
粗い検索ときめ細かい検索を同時にモデル化する統合学習手法を提案する。
提案手法は、強いベースラインに対して+4.03%、+3.38%、+2.40%のRecall@50精度を達成した。
論文 参考訳(メタデータ) (2022-11-14T14:25:40Z) - Block shuffling learning for Deepfake Detection [9.180904212520355]
畳み込みニューラルネットワーク(CNN)に基づくディープフェイク検出手法は精度が高いことを示した。
これらの手法は、未知の偽造法や共通変換に直面すると、しばしば性能が低下する。
本稿では,この問題に対処するためのブロックシャッフル正規化手法を提案する。
論文 参考訳(メタデータ) (2022-02-06T17:16:46Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。