論文の概要: Enhancing motion trajectory segmentation of rigid bodies using a novel
screw-based trajectory-shape representation
- arxiv url: http://arxiv.org/abs/2309.11413v1
- Date: Wed, 20 Sep 2023 15:40:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-09-21 15:41:00.309175
- Title: Enhancing motion trajectory segmentation of rigid bodies using a novel
screw-based trajectory-shape representation
- Title(参考訳): 新規なねじ形軌道形状表現を用いた剛体の運動軌跡分割の促進
- Authors: Arno Verduyn, Maxim Vochten, Joris De Schutter
- Abstract要約: トラジェクトリセグメンテーションとは、トラジェクトリを意味のある連続的なサブトラジェクトリに分割することを指す。
翻訳と回転の両方を組み込んだ剛体運動のための新しい軌道表現を提案する。
- 参考スコア(独自算出の注目度): 1.0589208420411014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory segmentation refers to dividing a trajectory into meaningful
consecutive sub-trajectories. This paper focuses on trajectory segmentation for
3D rigid-body motions. Most segmentation approaches in the literature represent
the body's trajectory as a point trajectory, considering only its translation
and neglecting its rotation. We propose a novel trajectory representation for
rigid-body motions that incorporates both translation and rotation, and
additionally exhibits several invariant properties. This representation
consists of a geometric progress rate and a third-order trajectory-shape
descriptor. Concepts from screw theory were used to make this representation
time-invariant and also invariant to the choice of body reference point. This
new representation is validated for a self-supervised segmentation approach,
both in simulation and using real recordings of human-demonstrated pouring
motions. The results show a more robust detection of consecutive submotions
with distinct features and a more consistent segmentation compared to
conventional representations. We believe that other existing segmentation
methods may benefit from using this trajectory representation to improve their
invariance.
- Abstract(参考訳): トラジェクトリセグメンテーションとは、トラジェクトリを意味のある連続的なサブトラジェクトリに分割することを指す。
本稿では3次元剛体運動の軌跡分割について述べる。
文学におけるほとんどのセグメンテーションアプローチは、物体の軌道を点軌道として表現しており、その変換と回転の無視のみを考慮している。
本稿では,翻訳と回転の両方を組み込んだ剛体運動の軌道表現を提案し,さらにいくつかの不変性を示す。
この表現は幾何進行速度と三階軌道形記述子からなる。
スクリュー理論の概念は、この表現を時間不変とし、身体基準点の選択に不変にするために用いられた。
この新たな表現は、シミュレーションと人間の指示された注ぐ動きの実際の記録の両方において、自己教師ありセグメンテーションアプローチで検証される。
その結果、特徴の異なる連続したサブモーションの検出と、従来の表現よりも一貫性のあるセグメンテーションが得られた。
他の既存のセグメンテーション手法は、この軌道表現を使用することで、不変性を改善することができると信じている。
関連論文リスト
- Learning Shape-Independent Transformation via Spherical Representations for Category-Level Object Pose Estimation [42.48001557547222]
カテゴリーレベルのオブジェクトポーズ推定は、特定のカテゴリにおける新しいオブジェクトのポーズとサイズを決定することを目的としている。
既存の対応に基づくアプローチは、通常、原始的な観測点と正規化されたオブジェクト座標の間の対応を確立するために点ベースの表現を採用する。
SpherePoseと呼ばれる新しいアーキテクチャを導入し、3つのコア設計を通して正確な対応予測を行う。
論文 参考訳(メタデータ) (2025-03-18T05:43:42Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Learning segmentation from point trajectories [79.02153797465326]
本稿では,光フローを補完する監視信号として,長期的点軌跡を用いたセグメンテーションネットワークを訓練する方法を提案する。
本手法は,モーションベースセグメンテーションにおける先行技術より優れる。
論文 参考訳(メタデータ) (2025-01-21T18:59:53Z) - BILTS: A novel bi-invariant local trajectory-shape descriptor for rigid-body motion [1.590337187050683]
本稿では, Bi-Invariant Local Trajectory-Shape Descriptor (BILTS) とそれに対応する異種性尺度を提案する。
また,BILTS記述子からの動作を再現するアルゴリズムも含み,その双方向性と軌道生成の有用性を示した。
論文 参考訳(メタデータ) (2024-05-07T15:14:49Z) - Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - Holistic Representation Learning for Multitask Trajectory Anomaly
Detection [65.72942351514956]
そこで本研究では,異なる時間帯における骨格軌跡の包括的表現による予測運動の学習を提案する。
我々は、時間的閉鎖された軌道を符号化し、ブロックされたセグメントの潜在表現を共同学習し、異なる時間的セグメントにわたる期待運動に基づいて軌道を再構築する。
論文 参考訳(メタデータ) (2023-11-03T11:32:53Z) - 4D Panoptic Segmentation as Invariant and Equivariant Field Prediction [48.57732508537554]
我々は4次元パノプティカルセグメンテーションのための回転同変ニューラルネットワークを開発した。
その結果,同種でないモデルに比べて計算コストが低いモデルの方が精度が高いことがわかった。
本手法は,新しい最先端性能を設定し,セマンティックKITTITI 4Dパネルにおいて第1位を獲得している。
論文 参考訳(メタデータ) (2023-03-28T00:20:37Z) - Outlier Detection for Trajectories via Flow-embeddings [2.66418345185993]
本稿では, 単体錯体でモデル化した離散化多様体上での実験的に観測された軌道の外れ値を検出する手法を提案する。
我々のアプローチは拡散写像やラプラシア固有写像のようなスペクトル埋め込みと似ており、低固有値に関連するグラフラプラシアンの固有ベクトルから埋め込みを構成する。
本手法は, 一般的な軌跡と(位相的に)異なる挙動の軌跡を抽出し, 合成データと経験データの両方を用いて, アプローチの性能を示す。
論文 参考訳(メタデータ) (2021-11-25T19:58:48Z) - Equivariant Point Network for 3D Point Cloud Analysis [17.689949017410836]
点雲解析のための実効的で実用的なSE(3)(3次元翻訳と回転)同変ネットワークを提案する。
まず,6次元の畳み込みを2つの分離可能な畳み込み作用素に分解する新しい枠組みであるSE(3)分離点畳み込みを提案する。
第2に,同変特徴の表現性を効果的に活用するアテンション層を導入する。
論文 参考訳(メタデータ) (2021-03-25T21:57:10Z) - MultiBodySync: Multi-Body Segmentation and Motion Estimation via 3D Scan
Synchronization [61.015704878681795]
本稿では,3次元点雲のための多体運動分節と剛性登録フレームワークを提案する。
このマルチスキャンマルチボディ設定によって生じる2つの非自明な課題は、である。
複数の入力ポイントクラウド間の対応性とセグメンテーション一貫性の保証
新規な対象カテゴリーに適用可能なロバストな運動に基づく剛体セグメンテーションを得る。
論文 参考訳(メタデータ) (2021-01-17T06:36:28Z) - A Differentiable Relaxation of Graph Segmentation and Alignment for AMR
Parsing [75.36126971685034]
我々は、アライメントとセグメンテーションをモデルの潜在変数として扱い、エンドツーエンドのトレーニングの一部としてそれらを誘導する。
また,AMRの個々の構造を扱うために手作りされたLyu2018AMRPAのセグメンテーションルールに依存するモデルにもアプローチした。
論文 参考訳(メタデータ) (2020-10-23T21:22:50Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。