論文の概要: M$^5$L: Multi-Modal Multi-Margin Metric Learning for RGBT Tracking
- arxiv url: http://arxiv.org/abs/2003.07650v1
- Date: Tue, 17 Mar 2020 11:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 21:31:52.489845
- Title: M$^5$L: Multi-Modal Multi-Margin Metric Learning for RGBT Tracking
- Title(参考訳): M$^5$L:RGBT追跡のためのマルチモーダルマルチマージン・メトリック・ラーニング
- Authors: Zhengzheng Tu, Chun Lin, Chenglong Li, Jin Tang and Bin Luo
- Abstract要約: RGBT追跡の過程で混乱するサンプルを分類することは難しい問題である。
RGBT追跡のためのM$5$Lという新しいマルチモーダルマルチマージンメトリックラーニングフレームワークを提案する。
我々のフレームワークは、追跡性能を向上し、最先端のRGBTトラッカーよりも優れています。
- 参考スコア(独自算出の注目度): 44.296318907168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classifying the confusing samples in the course of RGBT tracking is a quite
challenging problem, which hasn't got satisfied solution. Existing methods only
focus on enlarging the boundary between positive and negative samples, however,
the structured information of samples might be harmed, e.g., confusing positive
samples are closer to the anchor than normal positive samples.To handle this
problem, we propose a novel Multi-Modal Multi-Margin Metric Learning framework,
named M$^5$L for RGBT tracking in this paper. In particular, we design a
multi-margin structured loss to distinguish the confusing samples which play a
most critical role in tracking performance boosting. To alleviate this problem,
we additionally enlarge the boundaries between confusing positive samples and
normal ones, between confusing negative samples and normal ones with predefined
margins, by exploiting the structured information of all samples in each
modality.Moreover, a cross-modality constraint is employed to reduce the
difference between modalities and push positive samples closer to the anchor
than negative ones from two modalities.In addition, to achieve quality-aware
RGB and thermal feature fusion, we introduce the modality attentions and learn
them using a feature fusion module in our network. Extensive experiments on
large-scale datasets testify that our framework clearly improves the tracking
performance and outperforms the state-of-the-art RGBT trackers.
- Abstract(参考訳): RGBTトラッキングの過程で紛らわしいサンプルを分類するのは、非常に難しい問題です。
既存の手法では, 正値と負値の境界を拡大することのみに焦点が当てられているが, サンプルの構造情報を損なう可能性がある。例えば, 混乱する正値のサンプルは, 通常の正値のサンプルよりもアンカーに近づき, この問題に対処するために, 新たにM$^5$Lというマルチモーダルマルチマージン・メトリック・ラーニング・フレームワークを提案する。
特に,性能向上に最も重要な役割を果たしている混乱したサンプルを識別するために,マルチマージン構造損失を設計する。
To alleviate this problem, we additionally enlarge the boundaries between confusing positive samples and normal ones, between confusing negative samples and normal ones with predefined margins, by exploiting the structured information of all samples in each modality.Moreover, a cross-modality constraint is employed to reduce the difference between modalities and push positive samples closer to the anchor than negative ones from two modalities.In addition, to achieve quality-aware RGB and thermal feature fusion, we introduce the modality attentions and learn them using a feature fusion module in our network.
大規模データセットに対する大規模な実験により、我々のフレームワークは追跡性能をはっきりと改善し、最先端のRGBTトラッカーよりも優れています。
関連論文リスト
- Task-oriented Embedding Counts: Heuristic Clustering-driven Feature Fine-tuning for Whole Slide Image Classification [1.292108130501585]
本稿では,クラスタリング駆動型機能微調整法(HC-FT)を提案する。
提案手法はCAMELYON16とBRACSの両方で評価され,それぞれ97.13%,85.85%のAUCが得られた。
論文 参考訳(メタデータ) (2024-06-02T08:53:45Z) - Propensity Score Alignment of Unpaired Multimodal Data [3.8373578956681555]
マルチモーダル表現学習技術は通常、共通の表現を学ぶためにペア化されたサンプルに依存する。
本稿では,マルチモーダル表現学習において,異なるモダリティにまたがるアンペア化サンプルの整列化という課題に対処するアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-02T02:36:21Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - ScatterSample: Diversified Label Sampling for Data Efficient Graph
Neural Network Learning [22.278779277115234]
グラフニューラルネットワーク(GNN)トレーニングが高価であるいくつかのアプリケーションでは、新しいインスタンスのラベル付けが高価である。
データ効率のよいアクティブサンプリングフレームワークであるScatterSampleを開発し、アクティブな学習環境下でGNNを訓練する。
5つのデータセットに対する実験により、ScatterSampleは他のGNNのアクティブラーニングベースラインよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-06-09T04:05:02Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Robust Visual Tracking via Statistical Positive Sample Generation and
Gradient Aware Learning [28.60114425270413]
CNNベースのトラッカーは、複数のベンチマークデータセットで最先端のパフォーマンスを達成した。
統計的正のサンプル生成とグラディエント・アウェア・ラーニング(SPGA)によるロバストな追跡手法を提案する。
提案するSPGAは,いくつかの最先端トラッカーに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-11-09T09:14:58Z) - Hard Negative Samples Emphasis Tracker without Anchors [10.616828072065093]
追跡段階における強陰性サンプルと追跡対象を区別する問題に対処する。
そこで我々は,Samese ネットワークがハード・ネガティブなサンプルを認識する特徴を学習することを制約する,シンプルで効率的なハード・ネガティブなサンプル強調手法を提案する。
また,新しいアンカーフリートラッキングフレームワークを画素ごとの予測方式で検討する。
論文 参考訳(メタデータ) (2020-08-08T12:38:38Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。