論文の概要: Temporal-Viewpoint Transportation Plan for Skeletal Few-shot Action
Recognition
- arxiv url: http://arxiv.org/abs/2210.16820v1
- Date: Sun, 30 Oct 2022 11:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 14:54:06.361392
- Title: Temporal-Viewpoint Transportation Plan for Skeletal Few-shot Action
Recognition
- Title(参考訳): 骨格能動認識のための時間視点交通計画
- Authors: Lei Wang and Piotr Koniusz
- Abstract要約: Joint tEmporalとcAmera viewpoiNt alIgnmEntによる3Dスケルトンに基づく動作認識のためのFew-shot Learning Pipeline
- 参考スコア(独自算出の注目度): 38.27785891922479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Few-shot Learning pipeline for 3D skeleton-based action
recognition by Joint tEmporal and cAmera viewpoiNt alIgnmEnt (JEANIE). To
factor out misalignment between query and support sequences of 3D body joints,
we propose an advanced variant of Dynamic Time Warping which jointly models
each smooth path between the query and support frames to achieve simultaneously
the best alignment in the temporal and simulated camera viewpoint spaces for
end-to-end learning under the limited few-shot training data. Sequences are
encoded with a temporal block encoder based on Simple Spectral Graph
Convolution, a lightweight linear Graph Neural Network backbone. We also
include a setting with a transformer. Finally, we propose a similarity-based
loss which encourages the alignment of sequences of the same class while
preventing the alignment of unrelated sequences. We show state-of-the-art
results on NTU-60, NTU-120, Kinetics-skeleton and UWA3D Multiview Activity II.
- Abstract(参考訳): JEANIE (Joint tEmporal and cAmera viewpoiNt alIgnmEnt) による3次元骨格に基づく行動認識のためのFew-shot Learningパイプラインを提案する。
本研究では,3次元体継手の問合せとサポートシーケンスの相違を解消するために,クエリとサポートフレーム間の各スムーズな経路を共同でモデル化し,時間的およびシミュレーションされたカメラ視点空間における最適なアライメントを実現するダイナミック・タイム・ウォーピング法を提案する。
シーケンスは、ライトウェイトな線形グラフニューラルネットワークバックボーンである単純なスペクトルグラフ畳み込みに基づいて、時間的ブロックエンコーダで符号化される。
変換器の設定も含んでいます。
最後に,非関連配列のアライメントを防止しつつ,同一クラスのシーケンスのアライメントを促進する類似性に基づく損失を提案する。
NTU-60, NTU-120, Kinetics-skeleton および UWA3D Multiview Activity II の成績を示した。
関連論文リスト
- Meet JEANIE: a Similarity Measure for 3D Skeleton Sequences via Temporal-Viewpoint Alignment [44.22075586147116]
ビデオシーケンスは、アクションの速度、時間的位置、主題のポーズの顕著な変化(望ましくない効果)を示す。
本稿では,シーケンス対に対する共用tEmporalとcAmera viewpoiNt alIgnmEnt(JEANIE)を提案する。
論文 参考訳(メタデータ) (2024-02-07T05:47:31Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - A Light-Weight Contrastive Approach for Aligning Human Pose Sequences [1.0152838128195467]
トレーニングサンプルは、モカプマーカーや骨格関節などの3Dボディポイントを含むフレームの時間窓で構成されている。
拡張サンプル対の埋め込みベクトルにコサイン類似度1と、他のすべてのサンプルとミニバッチで類似度0を付与するコントラスト損失関数を用いて、軽量3層エンコーダを訓練する。
簡単なことに加えて、提案手法は訓練が速く、異なるマーカーセットや骨格関節レイアウトを用いて新しいデータに適応しやすくする。
論文 参考訳(メタデータ) (2023-03-07T21:35:02Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - 3D Skeleton-based Few-shot Action Recognition with JEANIE is not so
Na\"ive [28.720272938306692]
We propose a Few-shot Learning pipeline for 3D skeleton-based action recognition by Joint tEmporal and cAmera viewpoiNt alIgnmEnt。
論文 参考訳(メタデータ) (2021-12-23T16:09:23Z) - Leveraging Third-Order Features in Skeleton-Based Action Recognition [26.349722372701482]
スケルトン配列は軽量でコンパクトであり、エッジデバイスでのアクション認識に理想的な候補である。
最近のアクション認識法は、特徴融合のためのグラフニューラルネットワークでこれらの表現を使用して、空間時間的キューとして3D関節座標から特徴を抽出します。
関節と体部の関係を強固に捉えるため、角度の3次的特徴を現代建築に融合させることを提案します。
論文 参考訳(メタデータ) (2021-05-04T15:23:29Z) - Tensor Representations for Action Recognition [54.710267354274194]
シーケンスにおける人間の行動は、空間的特徴とその時間的ダイナミクスの複雑な相互作用によって特徴づけられる。
アクション認識タスクの視覚的特徴間の高次関係を捉えるための新しいテンソル表現を提案する。
我々は,高次テンソルといわゆる固有値パワー正規化(NEP)を用いて,高次事象のスペクトル検出を行う。
論文 参考訳(メタデータ) (2020-12-28T17:27:18Z) - MotioNet: 3D Human Motion Reconstruction from Monocular Video with
Skeleton Consistency [72.82534577726334]
モノクロビデオから3次元人間の骨格の動きを直接再構成するディープニューラルネットワークであるMotioNetを紹介した。
本手法は,動作表現を完全かつ一般的に使用するキネマティックスケルトンを直接出力する最初のデータ駆動型手法である。
論文 参考訳(メタデータ) (2020-06-22T08:50:09Z) - Skeleton Based Action Recognition using a Stacked Denoising Autoencoder
with Constraints of Privileged Information [5.67220249825603]
本稿では骨格再構築の観点から骨格表現を研究するための新しい手法を提案する。
特権情報に基づく学習の概念に基づいて,動作カテゴリと時間座標を重畳したデノナイジングオートエンコーダに統合する。
一時的ミスアライメントによる変動を軽減するため,新しい時間的登録法を提案する。
論文 参考訳(メタデータ) (2020-03-12T09:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。