論文の概要: Skeleon-Based Typing Style Learning For Person Identification
- arxiv url: http://arxiv.org/abs/2012.03212v1
- Date: Sun, 6 Dec 2020 08:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:57:07.640512
- Title: Skeleon-Based Typing Style Learning For Person Identification
- Title(参考訳): 人物識別のためのスケレオン型タイピングスタイル学習
- Authors: Lior Gelberg, David Mendlovic, and Dan Raviv
- Abstract要約: 適応型非局所時間グラフネットワークによるタイピングスタイルの堅牢性に基づく人物識別のための新しいアーキテクチャを提案する。
タイプスタイルのダイナミクスは,個人識別に役立つ有意義な情報を伝達するので,関節の位置を抽出し,動作のダイナミクスを学習する。
- 参考スコア(独自算出の注目度): 3.976291254896486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel architecture for person identification based on
typing-style, constructed of adaptive non-local spatio-temporal graph
convolutional network. Since type style dynamics convey meaningful information
that can be useful for person identification, we extract the joints positions
and then learn their movements' dynamics. Our non-local approach increases our
model's robustness to noisy input data while analyzing joints locations instead
of RGB data provides remarkable robustness to alternating environmental
conditions, e.g., lighting, noise, etc. We further present two new datasets for
typing style based person identification task and extensive evaluation that
displays our model's superior discriminative and generalization abilities, when
compared with state-of-the-art skeleton-based models.
- Abstract(参考訳): 適応型非局所時空間グラフ畳み込みネットワークで構築したタイピングスタイルに基づく人物識別のための新しいアーキテクチャを提案する。
タイプスタイルのダイナミクスは,個人識別に役立つ有意義な情報を伝達するので,関節の位置を抽出し,動作のダイナミクスを学習する。
rgbデータの代わりにジョイント位置を分析することで、照明やノイズなど、環境条件を交互に変化させることで、我々のモデルのノイズ入力データに対するロバスト性を高めます。
さらに,タイプスタイルに基づく個人識別タスクと,最先端の骨格モデルと比較した場合のモデルの優れた識別能力と一般化能力を示す広範囲な評価のための2つの新しいデータセットを提案する。
関連論文リスト
- Generative Models for Synthetic Urban Mobility Data: A Systematic Literature Review [44.99833362998488]
この体系的なレビューは、この異質で活発な研究分野の現状に関する構造化された比較概要を提供する。
レビューされたモデルの適用性に特に焦点が当てられている。
論文 参考訳(メタデータ) (2024-07-12T11:54:29Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Spatial-Temporal Graph Learning with Adversarial Contrastive Adaptation [19.419836274690816]
効率的な自己教師型学習を実現するための空間時空間グラフ学習モデル(GraphST)を提案する。
提案手法は, 重要な多視点自己教師情報の蒸留を自動化する, 対向的コントラスト学習パラダイムである。
実生活データセット上での様々な時空間予測タスクにおいて,提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-06-19T03:09:35Z) - More Generalized and Personalized Unsupervised Representation Learning
In A Distributed System [43.96799484565592]
フェデレートラーニングは、複数のクライアントが、ローカルクライアント間のプライバシー侵害を引き起こすことなく、グローバルモデルを集合的に学習することを可能にする。
本稿では,ローカルなスタイル情報をローカルなコンテンツ情報に注入することで,より一般化されたグローバルモデルを学ぶための新しい手法であるFedStyleを提案する。
我々は,FedStyleが一般化ベースライン法とパーソナライズベースライン法の両方を,スタイリゼーションされた分散化環境でより優れていることを示す。
論文 参考訳(メタデータ) (2022-11-11T20:14:26Z) - DyTed: Disentangled Representation Learning for Discrete-time Dynamic
Graph [59.583555454424]
離散時間動的グラフ、すなわちDyTedのための新しいディペンタングル表現学習フレームワークを提案する。
本研究では,時間不変の表現と時間変動の表現を効果的に識別する構造的コントラスト学習とともに,時間的クリップのコントラスト学習タスクを特別に設計する。
論文 参考訳(メタデータ) (2022-10-19T14:34:12Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。