論文の概要: MDReID: Modality-Decoupled Learning for Any-to-Any Multi-Modal Object Re-Identification
- arxiv url: http://arxiv.org/abs/2510.23301v1
- Date: Mon, 27 Oct 2025 13:08:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.554018
- Title: MDReID: Modality-Decoupled Learning for Any-to-Any Multi-Modal Object Re-Identification
- Title(参考訳): MDReID: 任意のマルチモードオブジェクト再同定のためのモダリティ分離学習
- Authors: Yingying Feng, Jie Li, Jie Hu, Yukang Zhang, Lei Tan, Jiayi Ji,
- Abstract要約: MDReIDは、モダリティマッチしたシナリオとモダリティミスマッチしたシナリオの両方で動作するように設計されたフレキシブルなReIDフレームワークである。
MDReIDは、モダリティ情報は予測可能で転送可能なモダリティ共有特徴と、ユニークでモダリティに依存しない特徴をキャプチャするモダリティ固有の特徴の2つの構成要素に分解できるという洞察に基づいている。
- 参考スコア(独自算出の注目度): 32.811775633963066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world object re-identification (ReID) systems often face modality inconsistencies, where query and gallery images come from different sensors (e.g., RGB, NIR, TIR). However, most existing methods assume modality-matched conditions, which limits their robustness and scalability in practical applications. To address this challenge, we propose MDReID, a flexible any-to-any image-level ReID framework designed to operate under both modality-matched and modality-mismatched scenarios. MDReID builds on the insight that modality information can be decomposed into two components: modality-shared features that are predictable and transferable, and modality-specific features that capture unique, modality-dependent characteristics. To effectively leverage this, MDReID introduces two key components: the Modality Decoupling Learning (MDL) and Modality-aware Metric Learning (MML). Specifically, MDL explicitly decomposes modality features into modality-shared and modality-specific representations, enabling effective retrieval in both modality-aligned and mismatched scenarios. MML, a tailored metric learning strategy, further enforces orthogonality and complementarity between the two components to enhance discriminative power across modalities. Extensive experiments conducted on three challenging multi-modality ReID benchmarks (RGBNT201, RGBNT100, MSVR310) consistently demonstrate the superiority of MDReID. Notably, MDReID achieves significant mAP improvements of 9.8\%, 3.0\%, and 11.5\% in general modality-matched scenarios, and average gains of 3.4\%, 11.8\%, and 10.9\% in modality-mismatched scenarios, respectively. The code is available at: \textcolor{magenta}{https://github.com/stone96123/MDReID}.
- Abstract(参考訳): 現実世界のオブジェクト再識別(ReID)システムは、クエリとギャラリーイメージが異なるセンサー(例えば、RGB、NIR、TIR)から来るという、モダリティの不整合に直面していることが多い。
しかし、既存のほとんどの手法はモダリティ整合条件を前提としており、実用アプリケーションにおけるロバスト性やスケーラビリティを制限している。
この課題に対処するため、MDReIDは、モダリティマッチングとモダリティミスマッチの両方のシナリオで動作するよう設計された、フレキシブルな任意の画像レベルReIDフレームワークである。
MDReIDは、モダリティ情報は予測可能で転送可能なモダリティ共有特徴と、ユニークでモダリティに依存しない特徴をキャプチャするモダリティ固有の特徴の2つの構成要素に分解できるという洞察に基づいている。
これを有効に活用するために、MDReIDはModality Decoupling Learning(MDL)とModality-Aware Metric Learning(MML)という2つの重要なコンポーネントを導入している。
特に、MDLは、モダリティの特徴をモダリティ共有およびモダリティ固有表現に明示的に分解し、モダリティ整合性および不整合性の両方のシナリオにおいて効果的な検索を可能にする。
調整されたメートル法学習戦略であるMMLは、さらに2つのコンポーネント間の直交性と相補性を強制し、モダリティ間の差別力を高める。
RGBNT201, RGBNT100, MSVR310の3つの挑戦的マルチモーダルReIDベンチマークにおいて, MDReIDの優位性を一貫して示す実験を行った。
特に、MDReIDは、一般的なモダリティマッチングシナリオでは9.8\%、3.0\%、1.5\%、平均ゲインは3.4\%、11.8\%、そして10.9\%である。
コードは以下の通りである。 \textcolor{magenta}{https://github.com/stone96123/MDReID}。
関連論文リスト
- I$^3$-MRec: Invariant Learning with Information Bottleneck for Incomplete Modality Recommendation [56.55935146424585]
textbfIncomplete textbfModality textbfRecommendation の textbfInformation ボトルネック原理を用いて学習する textbfI$3$-MRec を紹介する。
それぞれのモダリティを異なる意味環境として扱うことで、I$3$-MRecは、優先指向の表現を学習するために不変リスク最小化(IRM)を採用する。
I$3$-MRecは、様々なモダリティ欠落シナリオにおいて、既存の最先端MSSメソッドを一貫して上回る
論文 参考訳(メタデータ) (2025-08-06T09:29:50Z) - BiXFormer: A Robust Framework for Maximizing Modality Effectiveness in Multi-Modal Semantic Segmentation [55.486872677160015]
マスクレベルの分類タスクとしてマルチモーダルなセマンティックセグメンテーションを再構成する。
統一モダリティマッチング(UMM)とクロスモダリティアライメント(CMA)を統合したBiXFormerを提案する。
合成および実世界のマルチモーダルベンチマーク実験により,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-06-04T08:04:58Z) - SM3Det: A Unified Model for Multi-Modal Remote Sensing Object Detection [73.49799596304418]
本稿では,リモートセンシングのためのマルチモーダルデータセットとマルチタスクオブジェクト検出(M2Det)という新しいタスクを提案する。
水平方向または指向方向の物体を、あらゆるセンサーから正確に検出するように設計されている。
この課題は、1)マルチモーダルモデリングの管理に関わるトレードオフ、2)マルチタスク最適化の複雑さに起因する。
論文 参考訳(メタデータ) (2024-12-30T02:47:51Z) - MAGIC++: Efficient and Resilient Modality-Agnostic Semantic Segmentation via Hierarchical Modality Selection [20.584588303521496]
本稿では,効率的なマルチモーダル融合と階層的モダリティ選択のための2つの重要なプラグアンドプレイモジュールからなるMAGIC++フレームワークを紹介する。
本手法は実世界のベンチマークと合成ベンチマークの両方で最先端の性能を実現する。
本手法は, 先行技術よりも大きなマージンで優れる新奇なモダリティ非依存環境において, 優れた手法である。
論文 参考訳(メタデータ) (2024-12-22T06:12:03Z) - Centering the Value of Every Modality: Towards Efficient and Resilient Modality-agnostic Semantic Segmentation [7.797154022794006]
最近の試みでは、RGBのモダリティを中心とみなし、その他を補助的とみなし、2つの枝を持つ非対称なアーキテクチャを生み出している。
本稿では,コンパクトモデルから高性能モデルまで,様々なバックボーンと柔軟にペアリングできるMAGICという新しい手法を提案する。
提案手法は, モデルパラメータを60%削減しつつ, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-16T03:19:59Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Dynamic Enhancement Network for Partial Multi-modality Person
Re-identification [52.70235136651996]
複数のモーダルの表現能力を維持しつつ、任意のモダリティを欠くことができる新しい動的拡張ネットワーク(DENet)を設計する。
欠落状態は変更可能であるため、動的拡張モジュールを設計し、欠落状態に応じて動的にモダリティ特性を適応的に向上する。
論文 参考訳(メタデータ) (2023-05-25T06:22:01Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - MMD-ReID: A Simple but Effective Solution for Visible-Thermal Person
ReID [20.08880264104061]
本稿では,モダリティギャップを明示的な差分低減制約によって低減する,シンプルで効果的なMDD-ReIDを提案する。
我々はMDD-ReIDの有効性を定性的かつ定量的に実証するための広範囲な実験を行った。
提案手法は,SYSU-MM01およびRegDBデータセットにおける最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-11-09T11:33:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。