論文の概要: Quality-Aware Multimodal Biometric Recognition
- arxiv url: http://arxiv.org/abs/2112.05827v1
- Date: Fri, 10 Dec 2021 20:48:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 15:24:55.792245
- Title: Quality-Aware Multimodal Biometric Recognition
- Title(参考訳): 品質を考慮したマルチモーダルバイオメトリック認識
- Authors: Sobhan Soleymani, Ali Dabouei, Fariborz Taherkhani, Seyed Mehdi
Iranmanesh, Jeremy Dawson, Nasser M. Nasrabadi
- Abstract要約: 弱教師付き方式で評価された品質スコアを重み付けすることで,入力モダリティの表現を融合する品質認識フレームワークを開発する。
このフレームワークは2つの融合ブロックを利用し、それぞれが品質認識ネットワークと集約ネットワークのセットで表される。
顔,虹彩,指紋モダリティからなる3つのマルチモーダルデータセットについて検討し,その性能評価を行った。
- 参考スコア(独自算出の注目度): 30.322429033099688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a quality-aware multimodal recognition framework that combines
representations from multiple biometric traits with varying quality and number
of samples to achieve increased recognition accuracy by extracting
complimentary identification information based on the quality of the samples.
We develop a quality-aware framework for fusing representations of input
modalities by weighting their importance using quality scores estimated in a
weakly-supervised fashion. This framework utilizes two fusion blocks, each
represented by a set of quality-aware and aggregation networks. In addition to
architecture modifications, we propose two task-specific loss functions:
multimodal separability loss and multimodal compactness loss. The first loss
assures that the representations of modalities for a class have comparable
magnitudes to provide a better quality estimation, while the multimodal
representations of different classes are distributed to achieve maximum
discrimination in the embedding space. The second loss, which is considered to
regularize the network weights, improves the generalization performance by
regularizing the framework. We evaluate the performance by considering three
multimodal datasets consisting of face, iris, and fingerprint modalities. The
efficacy of the framework is demonstrated through comparison with the
state-of-the-art algorithms. In particular, our framework outperforms the rank-
and score-level fusion of modalities of BIOMDATA by more than 30% for true
acceptance rate at false acceptance rate of $10^{-4}$.
- Abstract(参考訳): 本稿では,複数の生体特性からの表現を様々な品質とサンプル数に組み合わせて,サンプルの品質に基づく補足的識別情報を抽出することにより,認識精度の向上を実現する,品質認識型マルチモーダル認識フレームワークを提案する。
我々は,弱教師付きで推定される品質スコアを用いて,入力モダリティの表現を重み付けて活用する品質認識フレームワークを開発した。
このフレームワークは2つの融合ブロックを利用し、それぞれが品質認識ネットワークと集約ネットワークのセットで表される。
アーキテクチャの変更に加えて,マルチモーダル分離性損失とマルチモーダルコンパクト性損失の2つのタスク固有損失関数を提案する。
最初の損失は、クラスに対するモダリティの表現がより良い品質の見積もりを提供するのに匹敵する大きさであることを保証する一方、異なるクラスのマルチモーダル表現は埋め込み空間における最大識別を達成するために分散される。
第2の損失はネットワークの重み付けを正則化すると見なされ、フレームワークを正則化することで一般化性能を向上させる。
顔,虹彩,指紋モダリティからなる3つのマルチモーダルデータセットを考慮し,評価を行った。
このフレームワークの有効性は最先端アルゴリズムとの比較により実証された。
特に、我々のフレームワークは、偽の受入率10^{-4}$の真の受入率に対して、biomdataのモダリティのランクとスコアレベルでの融合を30%以上上回っている。
関連論文リスト
- Multi-task Feature Enhancement Network for No-Reference Image Quality Assessment [4.4150617622399055]
マルチタスク戦略に基づくNo-Reference Image Quality Assessment (NR-IQA)手法はいくつかの課題に直面する。
本フレームワークは,高周波抽出ネットワーク,品質推定ネットワーク,歪み認識ネットワークの3つの主要コンポーネントから構成される。
5つの標準IQAデータベースによる実験結果から,本手法が高い性能を達成し,堅牢な一般化能力を示すことが確認された。
論文 参考訳(メタデータ) (2024-11-12T05:10:32Z) - Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Adaptive Image Quality Assessment via Teaching Large Multimodal Model to Compare [99.57567498494448]
我々はLMMに基づくノン参照IQAモデルであるCompare2Scoreを紹介する。
トレーニング中、同じIQAデータセットの画像を比較することで、スケールアップ比較命令を生成する。
9つのIQAデータセットの実験により、Compare2Scoreは、トレーニング中にテキスト定義の比較レベルを効果的にブリッジすることを確認した。
論文 参考訳(メタデータ) (2024-05-29T17:26:09Z) - How Quality Affects Deep Neural Networks in Fine-Grained Image Classification [0.799543372823325]
粒度分類システムの性能を高めるために,非参照画像品質評価(NRIQA)誘導カットオフポイント選択(CPS)戦略を提案する。
最も一般的に採用されている3つのイメージ拡張設定 -- トリミング、回転、ぼやけた -- をエントリポイントとしています。
具体的には、これらの方法によって得られるカットオフポイントは、多数決によって集約され、画像サブセット選択のプロセスが通知される。
論文 参考訳(メタデータ) (2024-05-09T12:59:11Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Context-Semantic Quality Awareness Network for Fine-Grained Visual Categorization [30.92656780805478]
細粒度視覚分類のための弱教師付き文脈意味品質認識ネットワーク(CSQA-Net)を提案する。
リッチな部分記述子とグローバルセマンティクスの空間的関係をモデル化するため,我々は新しい多部・多スケールクロスアテンション(MPMSCA)モジュールを開発した。
また、バックボーンネットワークの異なるレベルからの階層的セマンティクスを段階的に監視し、強化する汎用的マルチレベルセマンティクス評価モジュール(MLSQE)を提案する。
論文 参考訳(メタデータ) (2024-03-15T13:40:44Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Evaluating and Improving Factuality in Multimodal Abstractive
Summarization [91.46015013816083]
そこで我々は,CLIPBERTScoreを提案する。
ゼロショットにおけるこの2つの指標の単純な組み合わせは、文書要約のための既存の事実度指標よりも高い相関性が得られることを示す。
本分析は,CLIPBERTScoreとそのコンポーネントの信頼性と高い相関性を示す。
論文 参考訳(メタデータ) (2022-11-04T16:50:40Z) - Iterative Optimization of Pseudo Ground-Truth Face Image Quality Labels [0.0]
顔画像品質評価(FIQA)技術は、品質の悪いデータを拒否するのに使用できるサンプル品質情報を提供する。
本稿では,マットペアの類似点からのサンプル品質情報を品質予測に組み込んだ品質ラベル最適化手法を提案する。
提案手法は3つの多様なデータセットに対して3つの最先端FIQA手法を用いて評価する。
論文 参考訳(メタデータ) (2022-08-31T08:24:09Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。