論文の概要: BILTS: A Bi-Invariant Similarity Measure for Robust Object Trajectory Recognition under Reference Frame Variations
- arxiv url: http://arxiv.org/abs/2405.04392v2
- Date: Fri, 17 Jan 2025 15:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:57:09.808293
- Title: BILTS: A Bi-Invariant Similarity Measure for Robust Object Trajectory Recognition under Reference Frame Variations
- Title(参考訳): BILTS:参照フレーム変動下におけるロバスト物体軌道認識のためのバイ不変類似度測定
- Authors: Arno Verduyn, Erwin Aertbeliën, Glenn Maes, Joris De Schutter, Maxim Vochten,
- Abstract要約: 本稿では,参照フレームの変動による文脈変動に着目した。
オブジェクトの運動軌跡を文脈不変の方法で比較する類似性尺度が導入された。
BILTS(textitBi-Invariant Local Trajectory-Shape similarity)尺度を提案する。
- 参考スコア(独自算出の注目度): 1.590337187050683
- License:
- Abstract: When similar object motions are performed in diverse contexts but are meant to be recognized under a single classification, these contextual variations act as disturbances that negatively affect accurate motion recognition. In this paper, we focus on contextual variations caused by reference frame variations. To robustly deal with these variations, similarity measures have been introduced that compare object motion trajectories in a context-invariant manner. However, most are highly sensitive to noise near singularities, where the measure is not uniquely defined, and lack bi-invariance (invariance to both world and body frame variations). To address these issues, we propose the novel \textit{Bi-Invariant Local Trajectory-Shape Similarity} (BILTS) measure. Compared to other measures, the BILTS measure uniquely offers bi-invariance, boundedness, and third-order shape identity. Aimed at practical implementations, we devised a discretized and regularized version of the BILTS measure which shows exceptional robustness to singularities. This is demonstrated through rigorous recognition experiments using multiple datasets. On average, BILTS attained the highest recognition ratio and least sensitivity to contextual variations compared to other invariant object motion similarity measures. We believe that the BILTS measure is a valuable tool for recognizing motions performed in diverse contexts and has potential in other applications, including the recognition, segmentation, and adaptation of both motion and force trajectories.
- Abstract(参考訳): 類似した物体の動きが多様な文脈で実行されるが、単一の分類の下で認識されることが意図される場合、これらの状況変化は正確な動きの認識に悪影響を及ぼす障害として機能する。
本稿では,参照フレームの変動による文脈変動に着目した。
これらの変動に頑健に対処するために、オブジェクトの運動軌跡を文脈不変の方法で比較する類似性対策が導入された。
しかし、ほとんどの場合、測度が一意に定義されていない特異点近傍の雑音に非常に敏感であり、二変量(世界と身体の両方の変動)が欠如している。
これらの問題に対処するため, 新規な局所軌道形状類似度尺度 (BILTS) を提案する。
他の測度と比較すると、BILTS測度は双不変性、有界性、三階形状の恒等性を提供する。
実践的な実装を目的としたBILTS尺度の離散化および正規化バージョンを考案し,特異点に対する例外的ロバスト性を示した。
これは、複数のデータセットを用いた厳密な認識実験によって実証される。
BILTSは、他の不変物体運動類似度測定値と比較して、平均して認識率が最も高く、文脈変動に対する感度が低かった。
BILTS尺度は様々な状況下で実行される動きを認識できる貴重なツールであり、運動と力の軌跡の認識、セグメンテーション、適応など他の応用にも可能性を持っていると我々は信じている。
関連論文リスト
- Enhancing motion trajectory segmentation of rigid bodies using a novel
screw-based trajectory-shape representation [1.0589208420411014]
トラジェクトリセグメンテーションとは、トラジェクトリを意味のある連続的なサブトラジェクトリに分割することを指す。
翻訳と回転の両方を組み込んだ剛体運動のための新しい軌道表現を提案する。
論文 参考訳(メタデータ) (2023-09-20T15:40:22Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - ReMoDiffuse: Retrieval-Augmented Motion Diffusion Model [33.64263969970544]
3Dのモーション生成はクリエイティブ産業にとって不可欠だ。
近年の進歩は、テキスト駆動モーション生成のためのドメイン知識を持つ生成モデルに依存している。
本稿では拡散モデルに基づく動き生成フレームワークReMoDiffuseを提案する。
論文 参考訳(メタデータ) (2023-04-03T16:29:00Z) - 4D Panoptic Segmentation as Invariant and Equivariant Field Prediction [48.57732508537554]
我々は4次元パノプティカルセグメンテーションのための回転同変ニューラルネットワークを開発した。
その結果,同種でないモデルに比べて計算コストが低いモデルの方が精度が高いことがわかった。
本手法は,新しい最先端性能を設定し,セマンティックKITTITI 4Dパネルにおいて第1位を獲得している。
論文 参考訳(メタデータ) (2023-03-28T00:20:37Z) - EqMotion: Equivariant Multi-agent Motion Prediction with Invariant
Interaction Reasoning [83.11657818251447]
不変相互作用推論を用いた効率的な同変運動予測モデルであるEqMotionを提案する。
提案モデルに対して,粒子動力学,分子動力学,人体骨格運動予測,歩行者軌道予測の4つの異なるシナリオで実験を行った。
提案手法は4つのタスクすべてに対して最先端の予測性能を実現し,24.0/30.1/8.6/9.2%改善した。
論文 参考訳(メタデータ) (2023-03-20T05:23:46Z) - Spatiotemporal Multi-scale Bilateral Motion Network for Gait Recognition [3.1240043488226967]
本稿では,光学的流れに動機づけられた両動方向の特徴について述べる。
動作コンテキストを多段階の時間分解能でリッチに記述する多段階の時間表現を開発する。
論文 参考訳(メタデータ) (2022-09-26T01:36:22Z) - SegTAD: Precise Temporal Action Detection via Semantic Segmentation [65.01826091117746]
意味的セグメンテーションの新しい視点で時間的行動検出のタスクを定式化する。
TADの1次元特性により、粗粒度検出アノテーションを細粒度セマンティックセマンティックアノテーションに無償で変換できる。
1Dセマンティックセグメンテーションネットワーク(1D-SSN)と提案検出ネットワーク(PDN)からなるエンドツーエンドフレームワークSegTADを提案する。
論文 参考訳(メタデータ) (2022-03-03T06:52:13Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - MultiBodySync: Multi-Body Segmentation and Motion Estimation via 3D Scan
Synchronization [61.015704878681795]
本稿では,3次元点雲のための多体運動分節と剛性登録フレームワークを提案する。
このマルチスキャンマルチボディ設定によって生じる2つの非自明な課題は、である。
複数の入力ポイントクラウド間の対応性とセグメンテーション一貫性の保証
新規な対象カテゴリーに適用可能なロバストな運動に基づく剛体セグメンテーションを得る。
論文 参考訳(メタデータ) (2021-01-17T06:36:28Z) - Learning Descriptors Invariance Through Equivalence Relations Within
Manifold: A New Approach to Expression Invariant 3D Face Recognition [0.0]
本稿では,キーポイント記述子の有用性と欠点の両立にユニークなアプローチを提案する。
記述子のバリエーションは、トレーニング例から学習される。
トレーニングデータのラベルに基づいて、記述子間の等価関係を確立する。
論文 参考訳(メタデータ) (2020-05-11T01:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。