論文の概要: Are you In or Out (of gallery)? Wisdom from the Same-Identity Crowd
- arxiv url: http://arxiv.org/abs/2508.06357v1
- Date: Fri, 08 Aug 2025 14:39:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.265608
- Title: Are you In or Out (of gallery)? Wisdom from the Same-Identity Crowd
- Title(参考訳): あなたは(ギャラリーの)中か外か?同じアイデンティティの群衆からの知恵
- Authors: Aman Bhatta, Maria Dhakal, Michael C. King, Kevin W. Bowyer,
- Abstract要約: 1対多の顔認証における中心的な問題は、プローブ画像の人物がギャラリーに登録された画像を持っているかしないかである。
我々は、ランク1の結果がイン・ギャラリー/アウト・オブ・ギャラリーであるかどうかを予測するために、ランク1の結果を付加的に登録した画像を用いて新しいアプローチをとる。
- 参考スコア(独自算出の注目度): 6.818318933838661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central problem in one-to-many facial identification is that the person in the probe image may or may not have enrolled image(s) in the gallery; that is, may be In-gallery or Out-of-gallery. Past approaches to detect when a rank-one result is Out-of-gallery have mostly focused on finding a suitable threshold on the similarity score. We take a new approach, using the additional enrolled images of the identity with the rank-one result to predict if the rank-one result is In-gallery / Out-of-gallery. Given a gallery of identities and images, we generate In-gallery and Out-of-gallery training data by extracting the ranks of additional enrolled images corresponding to the rank-one identity. We then train a classifier to utilize this feature vector to predict whether a rank-one result is In-gallery or Out-of-gallery. Using two different datasets and four different matchers, we present experimental results showing that our approach is viable for mugshot quality probe images, and also, importantly, for probes degraded by blur, reduced resolution, atmospheric turbulence and sunglasses. We also analyze results across demographic groups, and show that In-gallery / Out-of-gallery classification accuracy is similar across demographics. Our approach has the potential to provide an objective estimate of whether a one-to-many facial identification is Out-of-gallery, and thereby to reduce false positive identifications, wrongful arrests, and wasted investigative time. Interestingly, comparing the results of older deep CNN-based face matchers with newer ones suggests that the effectiveness of our Out-of-gallery detection approach emerges only with matchers trained using advanced margin-based loss functions.
- Abstract(参考訳): 1対多の顔認証における中心的な問題は、プローブ画像の人物がギャラリーに登録された画像を持っているか、持っていないか、すなわち、イン・ギャレリーまたはアウト・オブ・ギャレリーである。
ランクワンの結果がアウト・オブ・ギャラリー(Out-of-gallery)であることを検出するための過去のアプローチは、主に類似度スコアの適切なしきい値を見つけることに焦点を当てていた。
我々は、ランク1の結果がイン・ギャラリー/アウト・オブ・ギャラリーであるかどうかを予測するために、ランク1の結果を付加的に登録した画像を用いて新しいアプローチをとる。
等級と画像のギャラリーが与えられた場合、等級1の等級に対応する追加登録画像のランクを抽出することにより、等級及び外級訓練データを生成する。
次に、この特徴ベクトルを利用するように分類器を訓練し、ランク1の結果がインギャラリかアウトオブギャラリかを予測する。
2つの異なるデータセットと4つの異なるマーカを用いて、我々のアプローチがマグショット品質のプローブ画像に有効であること、さらに、ブラー、分解能、大気乱流、サングラスによって劣化したプローブに対して有効であることを示す実験結果を示す。
また、人口集団間での結果を分析し、人口集団間でIn-gallery/Out-of-gallery分類精度が類似していることを示す。
提案手法は,1対1の顔認証がアウト・オブ・ギャラリーであるか否かを客観的に推定できる可能性があり,偽陽性の識別,不正逮捕,調査時間を無駄にする可能性がある。
興味深いことに、古いディープCNNベースのフェースマッチと新しいフェースマッチの結果を比較すると、我々のアウト・オブ・ギャラリー検出手法の有効性は、高度なマージンベースの損失関数を用いて訓練されたマーチャントでのみ現れることが示唆されている。
関連論文リスト
- Open-set Face Recognition using Ensembles trained on Clustered Data [2.132096006921048]
この研究は、数百から数千の主題からなるギャラリーに対して、スケーラブルなオープンセットの顔識別アプローチを詳述している。
クラスタリングとバイナリ学習アルゴリズムのアンサンブルで構成されており、クエリフェイスサンプルがフェイスギャラリーに属していることを推定し、その正体を検索する。
論文 参考訳(メタデータ) (2023-08-14T20:34:54Z) - Compact multi-scale periocular recognition using SAFE features [63.48764893706088]
特徴拡張(SAFE)記述子による対称性評価に基づく眼周囲認識のための新しい手法を提案する。
我々は、スクレラ中心を特徴抽出の単一キーポイントとして使用し、眼のこの点に集中するオブジェクトのようなアイデンティティ特性を強調します。
論文 参考訳(メタデータ) (2022-10-18T11:46:38Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - Contrastive Counterfactual Visual Explanations With Overdetermination [7.8752926274677435]
CLEARイメージは、満足いく説明は対照的で、事実的であり、測定可能であるべきだという見解に基づいている。
CLEAR画像は、Grad-CAMやLIMEなどの手法を平均27%向上させる医療画像ケーススタディに適用した。
論文 参考訳(メタデータ) (2021-06-28T10:24:17Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - A Self-supervised GAN for Unsupervised Few-shot Object Recognition [39.79912546252623]
本稿では、教師なし数発の物体認識について述べる。
すべてのトレーニングイメージはラベル付けされておらず、テストイメージはクエリと、対象のクラス毎にラベル付きサポートイメージに分割されている。
我々は,バニラGANを2つの損失関数で拡張し,それぞれが自己教師型学習を目的とした。
論文 参考訳(メタデータ) (2020-08-16T19:47:26Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。