論文の概要: SImpHAR: Advancing impedance-based human activity recognition using 3D simulation and text-to-motion models
- arxiv url: http://arxiv.org/abs/2507.06405v1
- Date: Tue, 08 Jul 2025 21:15:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.394981
- Title: SImpHAR: Advancing impedance-based human activity recognition using 3D simulation and text-to-motion models
- Title(参考訳): SImpHAR:3次元シミュレーションとテキスト・トゥ・モーションモデルを用いたインピーダンスに基づく人間活動認識の強化
- Authors: Lala Shakti Swarup Ray, Mengxi Liu, Deepika Gurung, Bo Zhou, Sungho Suh, Paul Lukowicz,
- Abstract要約: ウェアラブルセンサーを備えたヒューマンアクティビティ認識(HAR)は、医療、フィットネス、人間とコンピュータのインタラクションにおける応用に不可欠である。
2つのコアコントリビューションを通じて、この制限に対処する新しいフレームワークであるSImpHARを紹介します。
まず、最短パス推定、ソフトボディ物理、およびデータ拡張のためのデジタルツインとして機能するテキスト・ツー・モーション生成を用いて、3次元メッシュから現実的な生体インピーダンス信号を生成するシミュレーションパイプラインを提案する。
- 参考スコア(独自算出の注目度): 5.215675032361843
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human Activity Recognition (HAR) with wearable sensors is essential for applications in healthcare, fitness, and human-computer interaction. Bio-impedance sensing offers unique advantages for fine-grained motion capture but remains underutilized due to the scarcity of labeled data. We introduce SImpHAR, a novel framework addressing this limitation through two core contributions. First, we propose a simulation pipeline that generates realistic bio-impedance signals from 3D human meshes using shortest-path estimation, soft-body physics, and text-to-motion generation serving as a digital twin for data augmentation. Second, we design a two-stage training strategy with decoupled approach that enables broader activity coverage without requiring label-aligned synthetic data. We evaluate SImpHAR on our collected ImpAct dataset and two public benchmarks, showing consistent improvements over state-of-the-art methods, with gains of up to 22.3% and 21.8%, in terms of accuracy and macro F1 score, respectively. Our results highlight the promise of simulation-driven augmentation and modular training for impedance-based HAR.
- Abstract(参考訳): ウェアラブルセンサーを備えたヒューマンアクティビティ認識(HAR)は、医療、フィットネス、人間とコンピュータのインタラクションにおける応用に不可欠である。
バイオインダプタンスセンシングは、微細なモーションキャプチャにはユニークな利点があるが、ラベル付きデータの不足により、未利用のままである。
2つのコアコントリビューションを通じて、この制限に対処する新しいフレームワークであるSImpHARを紹介します。
まず、最短パス推定、ソフトボディ物理、およびデータ拡張のためのデジタルツインとして機能するテキスト・ツー・モーション生成を用いて、3次元メッシュから現実的な生体インピーダンス信号を生成するシミュレーションパイプラインを提案する。
第2に,ラベルに整合した合成データを必要とせず,より広範な活動カバレッジを実現するための2段階の学習戦略を設計する。
収集したImpActデータセットと2つの公開ベンチマークでSImpHARを評価し、それぞれ精度とマクロF1スコアで22.3%と21.8%の上昇率で最先端の手法よりも一貫した改善を示した。
本研究は, インピーダンスベースHARにおけるシミュレーション駆動強化とモジュラートレーニングの実現性を強調した。
関連論文リスト
- Scaling Human Activity Recognition: A Comparative Evaluation of Synthetic Data Generation and Augmentation Techniques [1.0712226955584796]
HAR(Human Activity Recognition)は、ラベル付きデータセットの不足によってしばしば制限される。
近年, 仮想慣性測定ユニット(IMU)データの生成について, クロスモーダル転送による検討が行われている。
論文 参考訳(メタデータ) (2025-06-09T10:25:53Z) - UAVTwin: Neural Digital Twins for UAVs using Gaussian Splatting [57.63613048492219]
UAVTwinは,無人航空機(UAV)に埋め込まれた下流モデルの訓練を行うための,実環境からデジタル双生児を作成する方法である。
これは、背景を再構築するための3Dガウススティング(3DGS)と、多様な外観と動作を複数のポーズで表示する制御可能な合成人間モデルを統合することで実現される。
論文 参考訳(メタデータ) (2025-04-02T22:17:30Z) - PIM: Physics-Informed Multi-task Pre-training for Improving Inertial Sensor-Based Human Activity Recognition [4.503003860563811]
IMUに基づくヒューマンアクティビティ認識(HAR)のための物理インフォームドマルチタスク事前学習(PIM)フレームワークを提案する。
PIMは、人間の動作の基本的物理的側面の理解に基づいて、プレテキストタスクを生成する。
マクロf1スコアの約10%の利得と,クラスごとのラベル付き例は2~8例に過ぎなかった。
論文 参考訳(メタデータ) (2025-03-23T08:16:01Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [53.539020807256904]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and Cost Volume-based Flow Prediction [89.89610257714006]
既存の手法は、これらのタスクの要求に応えるために高い精度を優先する。
本稿では,3次元セマンティック占有率予測とフロー推定のための一連の改善点を紹介する。
私たちの純粋な時間的アーキテクチャフレームワークであるALOccは、速度と精度の最適なトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - Combo: Co-speech holistic 3D human motion generation and efficient customizable adaptation in harmony [55.26315526382004]
共同音声合成のための新しいフレームワークComboを提案する。
特に、興味の生成モデルにおけるマルチインプット・マルチプル・アウトプットの性質として、基本的な課題があげられる。
コンボは高品質な動きを生み出すのに非常に効果的であるが、アイデンティティや感情の伝達にも効果的である。
論文 参考訳(メタデータ) (2024-08-18T07:48:49Z) - Sensor Data Augmentation from Skeleton Pose Sequences for Improving Human Activity Recognition [5.669438716143601]
HAR(Human Activity Recognition)は、ディープラーニングの普及に大きく貢献していない。
本稿では,センサをベースとしたウェアラブル型HARに対して,ポーズ・ツー・センサ・ネットワークモデルを導入することにより,新たなアプローチを提案する。
コントリビューションには、同時トレーニングの統合、直接ポーズ・ツー・センサ生成、MM-Fitデータセットの包括的な評価が含まれる。
論文 参考訳(メタデータ) (2024-04-25T10:13:18Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - HARMamba: Efficient and Lightweight Wearable Sensor Human Activity Recognition Based on Bidirectional Mamba [7.412537185607976]
ウェアラブルセンサーによる人間の活動認識(HAR)は、活動知覚において重要な研究領域である。
HARMambaは、選択的な双方向状態空間モデルとハードウェア対応設計を組み合わせた、革新的な軽量で多用途なHARアーキテクチャである。
HarMambaは現代の最先端フレームワークより優れており、計算とメモリの要求を大幅に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2024-03-29T13:57:46Z) - Generating Virtual On-body Accelerometer Data from Virtual Textual
Descriptions for Human Activity Recognition [0.6445605125467573]
本稿では,動作モデル合成,T2M-GPT,後に仮想IMUデータストリームに変換することで,人間の3次元動作シーケンスを生成する自動パイプラインを提案する。
我々は3つのHARデータセット(RealWorld、PAMAP2、USC-HAD)にアプローチをベンチマークし、我々の新しいアプローチを用いて生成された仮想IMUトレーニングデータを使用することで、HARモデルの性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-05-04T22:14:44Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。