論文の概要: Dyadic Movement Synchrony Estimation Under Privacy-preserving Conditions
- arxiv url: http://arxiv.org/abs/2208.01100v1
- Date: Mon, 1 Aug 2022 18:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:02:31.171845
- Title: Dyadic Movement Synchrony Estimation Under Privacy-preserving Conditions
- Title(参考訳): プライバシー保全条件下でのdyadic運動同期推定
- Authors: Jicheng Li, Anjana Bhat, Roghayeh Barmaki
- Abstract要約: 本稿では,プライバシー保護条件下での動作同期推定のためのアンサンブル手法を提案する。
本手法は,スケルトンデータや光学フローなど,共有性,個人性に依存しない二次データに完全に依存する。
本手法は,(1)自閉症治療介入から収集したPT13データセットと,(2)シンクロナイズドダイビング競技から収集したTASD-2データセットの2つのデータセットに対して検証を行った。
- 参考スコア(独自算出の注目度): 7.053333608725945
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Movement synchrony refers to the dynamic temporal connection between the
motions of interacting people. The applications of movement synchrony are wide
and broad. For example, as a measure of coordination between teammates,
synchrony scores are often reported in sports. The autism community also
identifies movement synchrony as a key indicator of children's social and
developmental achievements. In general, raw video recordings are often used for
movement synchrony estimation, with the drawback that they may reveal people's
identities. Furthermore, such privacy concern also hinders data sharing, one
major roadblock to a fair comparison between different approaches in autism
research. To address the issue, this paper proposes an ensemble method for
movement synchrony estimation, one of the first deep-learning-based methods for
automatic movement synchrony assessment under privacy-preserving conditions.
Our method relies entirely on publicly shareable, identity-agnostic secondary
data, such as skeleton data and optical flow. We validate our method on two
datasets: (1) PT13 dataset collected from autism therapy interventions and (2)
TASD-2 dataset collected from synchronized diving competitions. In this
context, our method outperforms its counterpart approaches, both deep neural
networks and alternatives.
- Abstract(参考訳): 運動同期(move synchrony)とは、相互作用する人の動きの間の動的時間的接続を指す。
ムーブメント同期の応用は広く広範である。
例えば、チームメイト間のコーディネーションの尺度として、同期スコアはスポーツでしばしば報告される。
自閉症コミュニティはまた、運動同期を子供の社会的、発達的業績の鍵となる指標と認識している。
一般に、生のビデオ記録は動きの同期推定によく使われ、人々のアイデンティティを明らかにする可能性があるという欠点がある。
さらに、このようなプライバシーに関する懸念は、データ共有を妨げ、自閉症の研究における異なるアプローチの公正な比較に対する大きな障害となる。
本稿では,プライバシ保護条件下で自動運動同期評価を行う最初のディープラーニング手法の一つである移動同期推定のためのアンサンブル手法を提案する。
提案手法は,スケルトンデータやオプティカルフローなど,共有可能でアイデンティティ非依存な二次データに完全に依存する。
1) 自閉症治療介入から収集したpt13データセットと, (2) シンクロダイビング競技から収集したtasd-2データセットである。
この文脈では、この手法はディープニューラルネットワークと代替ニューラルネットワークの両方のアプローチよりも優れています。
関連論文リスト
- Loose Social-Interaction Recognition in Real-world Therapy Scenarios [10.088521986304976]
本稿では,2つの個人間の疎結合を捉えるために,新しいデュアルパスアーキテクチャを提案する。
我々のモデルは、CNNのバックボーンを介して各ストリームからグローバルな抽象的特徴を学習し、新しいGlobal-Layer-Attentionモジュールを使ってそれらを融合する。
我々は、ルース・インタラクション・データセットやゆるやかなインタラクションのための公開自閉症・データセットなど、現実世界の自閉症診断モデルを評価する。
論文 参考訳(メタデータ) (2024-09-30T13:11:14Z) - Quantum synchronization in one-dimensional topological systems [4.680781132156346]
量子系におけるシンクロナイゼーションは、中心サイトへの散逸を適用して誘導することができる。
トポロジカルエッジ状態に由来する2種類の同期は、境界点間の対角線外あるいは対角線の相関によって特徴づけられる。
注目すべきは、同期振動は熱力学的限界において安定した振幅と周波数を維持することである。
論文 参考訳(メタデータ) (2024-09-19T09:03:09Z) - Synchformer: Efficient Synchronization from Sparse Cues [100.89656994681934]
コントリビューションには、新しい音声-視覚同期モデル、同期モデルからの抽出を分離するトレーニングが含まれる。
このアプローチは、濃密な設定とスパース設定の両方において最先端の性能を実現する。
また,100万スケールの 'in-the-wild' データセットに同期モデルのトレーニングを拡張し,解釈可能性に対するエビデンス属性技術を調査し,同期モデルの新たな機能であるオーディオ-視覚同期性について検討する。
論文 参考訳(メタデータ) (2024-01-29T18:59:55Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - GestSync: Determining who is speaking without a talking head [67.75387744442727]
本稿では,ジェスチャ・シンク (Gesture-Sync) を導入する。
Lip-Syncと比較して、Gesture-Syncは、声と体の動きの間にはるかに緩い関係があるため、はるかに難しい。
このモデルは自己教師付き学習だけで訓練でき、LSS3データセット上での性能を評価することができる。
論文 参考訳(メタデータ) (2023-10-08T22:48:30Z) - On the Audio-visual Synchronization for Lip-to-Speech Synthesis [22.407313748927393]
GRID, TCD-TIMIT, Lip2Wav などの一般的な音声視覚データセットは, データの非同期性に問題があることを示す。
このようなデータセットでリップ・トゥ・スペルのトレーニングを行うと、モデル非同期問題(つまり、生成された音声と入力ビデオの同期が切れている)がさらに引き起こされる可能性がある。
論文 参考訳(メタデータ) (2023-03-01T13:35:35Z) - Pose Uncertainty Aware Movement Synchrony Estimation via
Spatial-Temporal Graph Transformer [7.053333608725945]
運動同期は、相互作用するダイアド間の身体の動きの協調を反映する。
本稿では,移動同期推定のための骨格型グラフ変換器を提案する。
我々の手法は全体の88.98%の精度を達成し、その差を大きく上回った。
論文 参考訳(メタデータ) (2022-08-01T22:35:32Z) - Edge Continual Learning for Dynamic Digital Twins over Wireless Networks [68.65520952712914]
デジタルツイン(DT)は、現実世界とメタバースの間の重要なリンクを構成する。
本稿では,物理的双生児とそれに対応するサイバー双生児の親和性を正確にモデル化する新しいエッジ連続学習フレームワークを提案する。
提案するフレームワークは,破滅的忘れ込みに対して頑健な,高精度かつ同期的なCTモデルを実現する。
論文 参考訳(メタデータ) (2022-04-10T23:25:37Z) - Learning Iterative Robust Transformation Synchronization [71.73273007900717]
グラフニューラルネットワーク(GNN)を用いて変換同期を学習することを提案する。
本研究では、ロバストな損失関数のハンドクラフトを回避するとともに、グラフニューラルネットワーク(GNN)を用いて変換同期を学習することを提案する。
論文 参考訳(メタデータ) (2021-11-01T07:03:14Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Automatic audiovisual synchronisation for ultrasound tongue imaging [35.60751372748571]
超音波と音声を同時に記録し、このデータを正しく利用するには、2つのモードを正しく同期させる必要がある。
同期化は特別なハードウェアを用いて記録時に達成されるが、このアプローチは実際に失敗し、ユーザビリティが制限される。
本稿では,データ収集後の超音波と音声の自動同期の問題に対処する。
自己教師型ニューラルネットワークによって駆動される自動同期に対する我々のアプローチについて述べる。
論文 参考訳(メタデータ) (2021-05-31T17:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。