論文の概要: FlexiReID: Adaptive Mixture of Expert for Multi-Modal Person Re-Identification
- arxiv url: http://arxiv.org/abs/2510.15595v1
- Date: Fri, 17 Oct 2025 12:41:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.620231
- Title: FlexiReID: Adaptive Mixture of Expert for Multi-Modal Person Re-Identification
- Title(参考訳): FlexiReID: マルチモーダルな人物再識別のためのエキスパートの適応混合
- Authors: Zhen Sun, Lei Tan, Yunhang Shen, Chengmao Cai, Xing Sun, Pingyang Dai, Liujuan Cao, Rongrong Ji,
- Abstract要約: FlexiReIDはフレキシブルなフレームワークで、4つのモードにわたる7つの検索モードをサポートする。
一般的な4つのRe-IDデータセットを4つのモードすべてを含むように拡張した統合データセットであるCIRS-PEDESを構築した。
- 参考スコア(独自算出の注目度): 88.61193805417024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal person re-identification (Re-ID) aims to match pedestrian images across different modalities. However, most existing methods focus on limited cross-modal settings and fail to support arbitrary query-retrieval combinations, hindering practical deployment. We propose FlexiReID, a flexible framework that supports seven retrieval modes across four modalities: rgb, infrared, sketches, and text. FlexiReID introduces an adaptive mixture-of-experts (MoE) mechanism to dynamically integrate diverse modality features and a cross-modal query fusion module to enhance multimodal feature extraction. To facilitate comprehensive evaluation, we construct CIRS-PEDES, a unified dataset extending four popular Re-ID datasets to include all four modalities. Extensive experiments demonstrate that FlexiReID achieves state-of-the-art performance and offers strong generalization in complex scenarios.
- Abstract(参考訳): マルチモーダル・パーソナライゼーション(Re-ID)は、さまざまなモダリティで歩行者のイメージをマッチングすることを目的としている。
しかし、既存のほとんどのメソッドはクロスモーダルな設定に重点を置いており、任意のクエリと検索の組み合わせをサポートできないため、実際のデプロイを妨げている。
我々は,4つのモード(rgb,赤外線,スケッチ,テキスト)にまたがる7つの検索モードをサポートするフレキシブルなフレームワークであるFlexiReIDを提案する。
FlexiReIDは、様々なモダリティ特徴を動的に統合する適応混合(MoE)機構と、マルチモーダル特徴抽出を強化するためのクロスモーダルクエリ融合モジュールを導入している。
包括的評価を容易にするため,一般的な4つのRe-IDデータセットを拡張したCIRS-PEDESを構築する。
大規模な実験は、FlexiReIDが最先端のパフォーマンスを実現し、複雑なシナリオで強力な一般化を提供することを示した。
関連論文リスト
- OmniSegmentor: A Flexible Multi-Modal Learning Framework for Semantic Segmentation [74.55725909072903]
我々はOmniSegmentorと呼ばれる新しいマルチモーダル学習フレームワークを提案する。
ImageNetに基づいて、ImageNeXtと呼ばれるマルチモーダル事前学習のための大規模なデータセットを組み立てる。
様々なシナリオにまたがってモデルの知覚能力を一貫して増幅する、普遍的なマルチモーダル事前学習フレームワークを導入する。
論文 参考訳(メタデータ) (2025-09-18T15:52:44Z) - ReID5o: Achieving Omni Multi-modal Person Re-identification in a Single Model [38.4111384634895]
Omni Multi-modal Person Re-identification (OM-ReID) と呼ばれる新しい課題について検討する。
ORBenchは、5つのモダリティにまたがる1,000のユニークなIDからなる最初の高品質なマルチモーダルデータセットである。
また,ReIDのための新しいマルチモーダル学習フレームワークであるReID5oを提案する。
論文 参考訳(メタデータ) (2025-06-11T04:26:13Z) - Flex-MoE: Modeling Arbitrary Modality Combination via the Flexible Mixture-of-Experts [31.395361664653677]
我々は任意のモダリティの組み合わせを柔軟に組み込むように設計された新しいフレームワークFlex-MoEを提案する。
アルツハイマー病領域の4つのモードを含むADNIデータセットとMIMIC-IVデータセットを用いてFlex-MoEを評価する。
論文 参考訳(メタデータ) (2024-10-10T09:37:21Z) - All in One Framework for Multimodal Re-identification in the Wild [58.380708329455466]
オールインワン(AIO)という,ReID導入のためのマルチモーダル学習パラダイム
AIOは、凍結したトレーニング済みのビッグデータをエンコーダとして利用し、追加の微調整なしに効果的なマルチモーダル検索を可能にする。
クロスモーダルおよびマルチモーダルReIDの実験により、AIOは様々なモーダルデータを扱うだけでなく、困難な状況でも優れていることが明らかになった。
論文 参考訳(メタデータ) (2024-05-08T01:04:36Z) - Dynamic Enhancement Network for Partial Multi-modality Person
Re-identification [52.70235136651996]
複数のモーダルの表現能力を維持しつつ、任意のモダリティを欠くことができる新しい動的拡張ネットワーク(DENet)を設計する。
欠落状態は変更可能であるため、動的拡張モジュールを設計し、欠落状態に応じて動的にモダリティ特性を適応的に向上する。
論文 参考訳(メタデータ) (2023-05-25T06:22:01Z) - FM-ViT: Flexible Modal Vision Transformers for Face Anti-Spoofing [88.6654909354382]
本稿では,顔のアンチ・スプーフィングのためのフレキシブル・モーダル・ビジョン・トランス (FM-ViT) と呼ばれる,純粋なトランスフォーマーベースのフレームワークを提案する。
FM-ViTは、利用可能なマルチモーダルデータの助けを借りて、任意の単一モーダル(すなわちRGB)攻撃シナリオを柔軟にターゲットすることができる。
実験により、FM-ViTに基づいてトレーニングされた単一モデルは、異なるモーダルサンプルを柔軟に評価できるだけでなく、既存のシングルモーダルフレームワークよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-05-05T04:28:48Z) - Flexible-Modal Face Anti-Spoofing: A Benchmark [66.18359076810549]
フェース・アンチ・スプーフィング(FAS)は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を担っている。
第一のフレキシブル・モーダルなFASベンチマークを原則として確立しました。
また、フレキシブルモーダルFASのための一般的な深層モデルと特徴融合戦略についても検討する。
論文 参考訳(メタデータ) (2022-02-16T16:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。