論文の概要: Towards Class-agnostic Tracking Using Feature Decorrelation in Point
Clouds
- arxiv url: http://arxiv.org/abs/2202.13524v1
- Date: Mon, 28 Feb 2022 03:33:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:37:02.144513
- Title: Towards Class-agnostic Tracking Using Feature Decorrelation in Point
Clouds
- Title(参考訳): 点群における特徴デコレーションを用いたクラス非依存追跡に向けて
- Authors: Shengjing Tian, Jun Liu, and Xiuping Liu
- Abstract要約: 点雲における単一物体追跡は、LiDARセンサーが3次元視界に存在するため、ますます注目を集めている。
ディープニューラルネットワークに基づく既存の方法は、主に異なるカテゴリの異なるモデルをトレーニングすることに焦点を当てている。
この作業では、LiDARポイントクラウド、クラスに依存しないトラッキングにおいて、私たちの思考をより難しいタスクにします。
- 参考スコア(独自算出の注目度): 9.321928362927965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single object tracking in point clouds has been attracting more and more
attention owing to the presence of LiDAR sensors in 3D vision. However, the
existing methods based on deep neural networks focus mainly on training
different models for different categories, which makes them unable to perform
well in real-world applications when encountering classes unseen during the
training phase. In this work, we thus turn our thoughts to a more challenging
task in the LiDAR point clouds, class-agnostic tracking, where a general model
is supposed to be learned for any specified targets of both observed and unseen
categories. In particular, we first investigate the class-agnostic performances
of the state-of-the-art trackers via exposing the unseen categories to them
during testing, finding that a key factor for class-agnostic tracking is how to
constrain fused features between the template and search region to maintain
generalization when the distribution is shifted from observed to unseen
classes. Therefore, we propose a feature decorrelation method to address this
problem, which eliminates the spurious correlations of the fused features
through a set of learned weights and further makes the search region consistent
among foreground points and distinctive between foreground and background
points. Experiments on the KITTI and NuScenes demonstrate that the proposed
method can achieve considerable improvements by benchmarking against the
advanced trackers P2B and BAT, especially when tracking unseen objects.
- Abstract(参考訳): 点雲における単一物体追跡は、LiDARセンサーが3次元視界に存在するため、ますます注目を集めている。
しかし、ディープニューラルネットワークに基づく既存の手法は、主に異なるカテゴリの異なるモデルのトレーニングに重点を置いているため、トレーニングフェーズ中にクラスが見えない場合に現実世界のアプリケーションでうまく機能しない。
そこで本研究では,LiDARポイントクラウド,クラスに依存しないトラッキングにおいて,観測対象と見えないカテゴリの任意の特定のターゲットに対して,一般的なモデルを学習することが求められている。
特に,テスト中に未確認のカテゴリを露出させることにより,最先端トラッカーのクラス非依存のパフォーマンスを調査し,クラス非依存のトラッキングの鍵となる要素は,その分布が観察されたクラスから未確認クラスに移行した際の一般化を維持するために,テンプレートと検索領域の間で融合した特徴を制約する方法であることを確認した。
そこで本研究では,複数の学習重みの組を通して融合特徴のスプリアス相関を解消し,さらに探索領域を前景点間で一貫性を持たせ,前景と背景点を区別する特徴非相関法を提案する。
KITTI と NuScenes の実験により,提案手法は高度なトラッカー P2B と BAT とのベンチマークにより,特に未確認物体の追跡において,大幅な改善が達成できることを示した。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Debiased Novel Category Discovering and Localization [40.02326438622898]
新たなクラスディスカバリー・ローカライゼーション(NCDL)の課題に焦点をあてる。
本稿では,クラス非依存領域提案ネットワーク(RPN)とクラス対応RPNを組み合わせたデバイアスドリージョンマイニング(DRM)手法を提案する。
我々はNCDLベンチマークで広範な実験を行い、提案手法が従来の手法よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2024-02-29T03:09:16Z) - Weakly-Supervised Action Localization by Hierarchically-structured
Latent Attention Modeling [19.683714649646603]
弱教師付きアクションローカライゼーションは、ビデオレベルのラベルのみを持つ未トリミングビデオにおけるアクションインスタンスを認識およびローカライズすることを目的としている。
既存のモデルのほとんどはマルチインスタンス学習(MIL)に依存しており、ラベル付きバッグを分類することでラベル付きインスタンスの予測を監督している。
本稿では,特徴セマンティクスの時間的変動を学習するために,新しい注意に基づく階層構造潜在モデルを提案する。
論文 参考訳(メタデータ) (2023-08-19T08:45:49Z) - Adaptive Base-class Suppression and Prior Guidance Network for One-Shot
Object Detection [9.44806128120871]
ワンショットオブジェクト検出(OSOD)は、クエリイメージによって指定された所定のカテゴリに対して、すべてのオブジェクトインスタンスを検出することを目的としている。
本稿では,BSPG(Base-class Suppression and Prior Guidance)ネットワークという新しいフレームワークを提案する。
具体的には,ベースクラス予測器を用いて,ベースクラスのオブジェクトを明示的に検出し,ベースクラス抑制モジュールによって適応的に除去する。
事前誘導モジュールは、非パラメトリックな方法で高レベルの特徴の相関を計算し、クラスに依存しない事前マップを生成し、目的の特徴にリッチなセマンティックな手がかりを与え、その後の検出プロセスを導くように設計されている。
論文 参考訳(メタデータ) (2023-03-24T19:04:30Z) - Few-Shot Point Cloud Semantic Segmentation via Contrastive
Self-Supervision and Multi-Resolution Attention [6.350163959194903]
数発の学習事前学習のための対照的な自己超越フレームワークを提案する。
具体的には、3Dポイントクラウドのための学習可能な拡張子を用いて、新しいコントラスト学習アプローチを実装した。
最接近点と最遠点の両方を用いて多分解能アテンションモジュールを開発し,局所点と大域点の情報をより効率的に抽出する。
論文 参考訳(メタデータ) (2023-02-21T07:59:31Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Zero-Shot Temporal Action Detection via Vision-Language Prompting [134.26292288193298]
視覚言語プロンプト(STALE)を用いた新しいゼロショット時間行動検出モデルを提案する。
我々のモデルは最先端の代替品を著しく上回っている。
我々のモデルは、近年の強力な競合相手よりも監督的TADにおいて優れた結果をもたらす。
論文 参考訳(メタデータ) (2022-07-17T13:59:46Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - One Point is All You Need: Directional Attention Point for Feature
Learning [51.44837108615402]
ポイントクラウド分類やセグメンテーションなどのタスクのポイント機能強化を学習するための新しい注意ベースのメカニズムを提示する。
我々は,最先端のクラウド分類とセグメンテーションネットワークに注目機構を組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-12-11T11:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。