論文の概要: A Unified Framework for Iris Anti-Spoofing: Introducing Iris Anti-Spoofing Cross-Domain-Testing Protocol and Masked-MoE Method
- arxiv url: http://arxiv.org/abs/2408.09752v2
- Date: Fri, 11 Apr 2025 07:31:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:15:52.523718
- Title: A Unified Framework for Iris Anti-Spoofing: Introducing Iris Anti-Spoofing Cross-Domain-Testing Protocol and Masked-MoE Method
- Title(参考訳): Iris Anti-Spoofingのための統一フレームワーク: Iris Anti-Spoofing Cross-Domain-Testing ProtocolとMasked-MoE法の導入
- Authors: Hang Zou, Chenxi Du, Ajian Liu, Yuan Zhang, Jing Liu, Mingchuan Yang, Jun Wan, Hui Zhang, Zhenan Sun,
- Abstract要約: Iris Anti-Spoofing Cross-Domain-Testing (IAS-CDT) プロトコルを提案する。
7つのデータベースに属する10のデータセットを4つの機関が公開し、6つの異なるデバイスで収集する。
階層的な3つのサブプロトコールを含み、平均性能、断面積一般化、IASモデルのクロスデバイス一般化を評価することを目的としている。
- 参考スコア(独自算出の注目度): 42.86520659674655
- License:
- Abstract: Iris recognition is widely used in high-security scenarios due to its stability and distinctiveness. However, iris images captured by different devices exhibit certain and device-related consistent differences, which has a greater impact on the classification algorithm for anti-spoofing. The iris of various races would also affect the classification, causing the risk of identity theft. So it is necessary to improve the cross-domain capabilities of the iris anti-spoofing (IAS) methods to enable it more robust in facing different races and devices. However, there is no existing protocol that is comprehensively available. To address this gap, we propose an Iris Anti-Spoofing Cross-Domain-Testing (IAS-CDT) Protocol, which involves 10 datasets, belonging to 7 databases, published by 4 institutions, and collected with 6 different devices. It contains three sub-protocols hierarchically, aimed at evaluating average performance, cross-racial generalization, and cross-device generalization of IAS models. Moreover, to address the cross-device generalization challenge brought by the IAS-CDT Protocol, we employ multiple model parameter sets to learn from the multiple sub-datasets. Specifically, we utilize the Mixture of Experts (MoE) to fit complex data distributions using multiple sub-neural networks. To further enhance the generalization capabilities, we propose a novel method Masked-MoE (MMoE), which randomly masks a portion of tokens for some experts and requires their outputs to be similar to the unmasked experts, which can effectively mitigate the overfitting issue of MoE. For the evaluation, we selected ResNet50, VIT-B/16, CLIP, and FLIP as representative models and benchmarked them under the proposed IAS-CDT Protocol.
- Abstract(参考訳): アイリス認識は、その安定性と特異性のために、高いセキュリティシナリオで広く使用されている。
しかし、異なるデバイスによって撮影された虹彩画像は、特定のデバイスとデバイスに関する一貫した相違を示し、これはアンチ・スプーフィングの分類アルゴリズムに大きな影響を及ぼす。
様々な人種の虹彩は分類にも影響を及ぼし、アイデンティティー盗難のリスクも引き起こした。
そのため、アイリスアンチスプーフィング(IAS)メソッドのクロスドメイン機能を改善して、異なるレースやデバイスに対してより堅牢にすることが必要である。
しかし、包括的に利用可能な既存のプロトコルは存在しない。
このギャップに対処するために、Iris Anti-Spoofing Cross-Domain-Testing (IAS-CDT)プロトコルを提案する。
階層的な3つのサブプロトコールを含み、平均性能、断面積一般化、IASモデルのクロスデバイス一般化を評価することを目的としている。
さらに、IAS-CDTプロトコルがもたらすデバイス間一般化の課題に対処するため、複数のサブデータセットから学習するために複数のモデルパラメーターを用いる。
具体的には、Mixture of Experts (MoE)を用いて、複数のサブニューラルネットワークを用いて複雑なデータ分布を適合させる。
一般化能力を更に高めるために,一部の専門家に対してランダムにトークンの一部を隠蔽し,その出力を未熟な専門家に類似させる新しい手法であるMasked-MoE(MMoE)を提案する。
本評価では,ResNet50,VIT-B/16,CLIP,FLIPを代表モデルとして選択し,提案したIAS-CDTプロトコルでベンチマークを行った。
関連論文リスト
- GeMID: Generalizable Models for IoT Device Identification [4.029017464832905]
デバイス識別(DI)は、そのトラフィックパターンに基づいてIoTデバイスを識別する。
機械学習モデルを構築する既存のDIアプローチは、様々なネットワーク環境におけるモデル一般化可能性の課題を見落としていることが多い。
本稿では,この制限に対処する新しいフレームワークを提案し,異なるネットワーク環境において収集されたデータセット間のDIモデルの一般化性を評価する。
論文 参考訳(メタデータ) (2024-11-05T17:09:43Z) - MFCLIP: Multi-modal Fine-grained CLIP for Generalizable Diffusion Face Forgery Detection [64.29452783056253]
フォトリアリスティック・フェイスジェネレーション手法の急速な発展は、社会やアカデミックにおいて大きな関心を集めている。
既存のアプローチは主に画像モダリティを用いて顔の偽造パターンをキャプチャするが、きめ細かいノイズやテキストのような他のモダリティは完全には探索されていない。
そこで本研究では,画像ノイズの多点にわたる包括的かつきめ細かなフォージェリートレースをマイニングする,MFCLIP(MF-modal Fine-fine-fine-fine-fine-fine CLIP)モデルを提案する。
論文 参考訳(メタデータ) (2024-09-15T13:08:59Z) - All in One Framework for Multimodal Re-identification in the Wild [58.380708329455466]
オールインワン(AIO)という,ReID導入のためのマルチモーダル学習パラダイム
AIOは、凍結したトレーニング済みのビッグデータをエンコーダとして利用し、追加の微調整なしに効果的なマルチモーダル検索を可能にする。
クロスモーダルおよびマルチモーダルReIDの実験により、AIOは様々なモーダルデータを扱うだけでなく、困難な状況でも優れていることが明らかになった。
論文 参考訳(メタデータ) (2024-05-08T01:04:36Z) - BlendX: Complex Multi-Intent Detection with Blended Patterns [4.852816974803059]
BlendXは、前者よりも多様なパターンを特徴とする洗練されたデータセットのスイートです。
データセット構築には,ルールベースと生成ツール – OpenAIのChatGPT – の両方を使用します。
BlendXの実験によると、最先端のMIDモデルは、新しいデータセットがもたらす課題に苦戦している。
論文 参考訳(メタデータ) (2024-03-27T06:13:04Z) - An Open-World, Diverse, Cross-Spatial-Temporal Benchmark for Dynamic Wild Person Re-Identification [58.5877965612088]
人物再識別(ReID)は、データ駆動のディープラーニング技術のおかげで大きな進歩を遂げました。
既存のベンチマークデータセットには多様性がなく、これらのデータに基づいてトレーニングされたモデルは、動的なワイルドシナリオに対してうまく一般化できない。
OWDと呼ばれる新しいOpen-World, Diverse, Cross-Spatial-Temporalデータセットを開発した。
論文 参考訳(メタデータ) (2024-03-22T11:21:51Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Toward Accurate and Reliable Iris Segmentation Using Uncertainty
Learning [96.72850130126294]
高精度で信頼性の高いアイリスセグメンテーションのためのアイリスU変換器(アイリスUsformer)を提案する。
IrisUsformerの精度向上のために,位置感応操作と再パッケージング変圧器ブロックを採用することで精巧に設計する。
IrisUsformer は SOTA IrisParseNet の 35% MAC を用いて, セグメンテーション精度の向上を図っている。
論文 参考訳(メタデータ) (2021-10-20T01:37:19Z) - Generalized Iris Presentation Attack Detection Algorithm under
Cross-Database Settings [63.90855798947425]
プレゼンテーションアタックは、バイオメトリックなモダリティの大部分に大きな課題をもたらす。
本稿では,汎用的な深層学習に基づくプレゼンテーション攻撃検出ネットワークであるMVANetを提案する。
これはハイブリッドアルゴリズムの単純さと成功、あるいは複数の検出ネットワークの融合にインスパイアされている。
論文 参考訳(メタデータ) (2020-10-25T22:42:27Z) - On Benchmarking Iris Recognition within a Head-mounted Display for AR/VR
Application [16.382021536377437]
我々は、ヘッドマウントディスプレイ(HMD)に適した虹彩認識アルゴリズムのセットを評価する。
我々は最近開発されたミニチュアセグメンテーションモデル(EyeMMS)を用いて虹彩のセグメンテーションを行っている。
アイリス認識の性能に感銘を受けて,HMDにおける非協調的なキャプチャ設定において,ユーザの継続的な認証を提案する。
論文 参考訳(メタデータ) (2020-10-20T17:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。