論文の概要: A Quality-Guided Mixture of Score-Fusion Experts Framework for Human Recognition
- arxiv url: http://arxiv.org/abs/2508.00053v1
- Date: Thu, 31 Jul 2025 18:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.609346
- Title: A Quality-Guided Mixture of Score-Fusion Experts Framework for Human Recognition
- Title(参考訳): 音声認識のためのスコアフュージョンエキスパートフレームワークの品質誘導混合
- Authors: Jie Zhu, Yiyang Su, Minchul Kim, Anil Jain, Xiaoming Liu,
- Abstract要約: 全体バイオメトリック認識は、様々なバイオメトリック・モダリティを統合する難しいタスクである。
textbfQuality-guided textbfMixture of score-fusion textbfExperts (QME) について述べる。
本稿では,QE(Modality-specific Quality Estimator)とスコアトリプルト損失を用いた品質評価のための新しい擬似品質損失を導入し,測定性能を向上する。
- 参考スコア(独自算出の注目度): 14.242680363313148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole-body biometric recognition is a challenging multimodal task that integrates various biometric modalities, including face, gait, and body. This integration is essential for overcoming the limitations of unimodal systems. Traditionally, whole-body recognition involves deploying different models to process multiple modalities, achieving the final outcome by score-fusion (e.g., weighted averaging of similarity matrices from each model). However, these conventional methods may overlook the variations in score distributions of individual modalities, making it challenging to improve final performance. In this work, we present \textbf{Q}uality-guided \textbf{M}ixture of score-fusion \textbf{E}xperts (QME), a novel framework designed for improving whole-body biometric recognition performance through a learnable score-fusion strategy using a Mixture of Experts (MoE). We introduce a novel pseudo-quality loss for quality estimation with a modality-specific Quality Estimator (QE), and a score triplet loss to improve the metric performance. Extensive experiments on multiple whole-body biometric datasets demonstrate the effectiveness of our proposed approach, achieving state-of-the-art results across various metrics compared to baseline methods. Our method is effective for multimodal and multi-model, addressing key challenges such as model misalignment in the similarity score domain and variability in data quality.
- Abstract(参考訳): 全体バイオメトリック認識は、顔、歩行、身体など様々なバイオメトリック・モダリティを統合する、挑戦的なマルチモーダル・タスクである。
この統合は、ユニモーダルシステムの限界を克服するために不可欠である。
従来の全身認識では、複数のモードを処理するために異なるモデルをデプロイし、スコア融合(例えば、各モデルからの類似度行列の重み付け平均化)によって最終的な結果を達成する。
しかし、これらの手法は個々のモーダルのスコア分布のばらつきを無視する可能性があり、最終的な性能を改善することは困難である。
そこで本研究では,Mixture of Experts (MoE) を用いた学習可能なスコアフュージョン戦略を用いて,全身生体認証性能を向上させるための新しいフレームワークである,スコアフュージョン \textbf{Q}uality-guided \textbf{M}ixture of score-fusion \textbf{E}xperts (QME)を提案する。
本稿では,QE(Modality-specific Quality Estimator)による品質評価のための新しい擬似品質損失と,測定性能向上のためのスコアトリプルト損失を導入する。
複数の全身バイオメトリックデータセットに対する大規模な実験により,提案手法の有効性が実証された。
本手法はマルチモーダルモデルとマルチモデルに対して有効であり,類似度スコア領域におけるモデルミスアライメントやデータ品質の変動といった重要な課題に対処する。
関連論文リスト
- Unified modality separation: A vision-language framework for unsupervised domain adaptation [60.8391821117794]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインでトレーニングされたモデルが新しいラベル付きドメインを扱うことを可能にする。
本稿では,モダリティ固有成分とモダリティ不変成分の両方に対応可能な統一モダリティ分離フレームワークを提案する。
提案手法は,9倍の計算効率で最大9%の性能向上を実現している。
論文 参考訳(メタデータ) (2025-08-07T02:51:10Z) - EVA-MILP: Towards Standardized Evaluation of MILP Instance Generation [13.49043811341421]
混合整数線形プログラミング(MILP)は、複雑な意思決定問題を解決するための基礎となる。
多様なデータセットに対する機械学習の需要により,MILPインスタンス生成手法の普及が加速し,標準化された評価手法が大幅に向上した。
本稿では,MILPインスタンス生成手法の体系的および客観的評価を目的とした総合ベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T16:42:15Z) - Enhancing person re-identification via Uncertainty Feature Fusion Method and Auto-weighted Measure Combination [1.183049138259841]
人物再識別(Re-ID)は、監視システムにおいて、異なるカメラビューで同一人物を特定することを含む、困難なタスクである。
本稿では,不確定特徴融合法(UFFM)と自動重み付け器(AMC)によるReIDモデルの能力を向上する新しい手法を提案する。
本手法は,人物の再識別データセットで評価した場合のランク@1精度と平均精度(mAP)を大幅に改善する。
論文 参考訳(メタデータ) (2024-05-02T09:09:48Z) - Out-of-Distribution Detection via Deep Multi-Comprehension Ensemble [11.542472900306745]
マルチComprehension (MC) Ensemble は,OOD (Out-of-Distribution) 特徴表現を拡大するための戦略として提案されている。
OOD検出におけるMC Ensemble戦略の優れた性能を示す実験結果を得た。
これにより,提案手法がトレーニング分布外のインスタンスを検出できるモデルの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-24T18:43:04Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Quality-Aware Multimodal Biometric Recognition [30.322429033099688]
弱教師付き方式で評価された品質スコアを重み付けすることで,入力モダリティの表現を融合する品質認識フレームワークを開発する。
このフレームワークは2つの融合ブロックを利用し、それぞれが品質認識ネットワークと集約ネットワークのセットで表される。
顔,虹彩,指紋モダリティからなる3つのマルチモーダルデータセットについて検討し,その性能評価を行った。
論文 参考訳(メタデータ) (2021-12-10T20:48:55Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z) - Self-Supervised Multimodal Domino: in Search of Biomarkers for
Alzheimer's Disease [19.86082635340699]
自己監督型表現学習アルゴリズムを編成する合理的な方法の分類法を提案する。
まず,おもちゃのマルチモーダルMNISTデータセットのモデルを評価し,アルツハイマー病患者を用いたマルチモーダル・ニューロイメージングデータセットに適用した。
提案手法は,従来の自己教師付きエンコーダデコーダ法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。