論文の概要: Suite-IN++: A FlexiWear BodyNet Integrating Global and Local Motion Features from Apple Suite for Robust Inertial Navigation
- arxiv url: http://arxiv.org/abs/2504.00438v1
- Date: Tue, 01 Apr 2025 05:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:24:38.528762
- Title: Suite-IN++: A FlexiWear BodyNet Integrating Global and Local Motion Features from Apple Suite for Robust Inertial Navigation
- Title(参考訳): Suite-IN++:ロバスト慣性ナビゲーションのためのApple Suiteからグローバルとローカルのモーション機能を統合したFlexiWear BodyNet
- Authors: Lan Sun, Songpengcheng Xia, Jiarui Yang, Ling Pei,
- Abstract要約: Suite-IN++は、フレキシウェアボディーネットベースの歩行者ローカライゼーションのためのディープラーニングフレームワークである。
それは、各デバイスのデータの信頼性に基づいてグローバルな機能を融合して、全体の動きの傾向を捉えている。
位置決め精度とロバスト性に優れ、実生活の歩行者追跡シナリオにおいて最先端のモデルよりも大幅に優れる。
- 参考スコア(独自算出の注目度): 3.306068046486614
- License:
- Abstract: The proliferation of wearable technology has established multi-device ecosystems comprising smartphones, smartwatches, and headphones as critical enablers for ubiquitous pedestrian localization. However, traditional pedestrian dead reckoning (PDR) struggles with diverse motion modes, while data-driven methods, despite improving accuracy, often lack robustness due to their reliance on a single-device setup. Therefore, a promising solution is to fully leverage existing wearable devices to form a flexiwear bodynet for robust and accurate pedestrian localization. This paper presents Suite-IN++, a deep learning framework for flexiwear bodynet-based pedestrian localization. Suite-IN++ integrates motion data from wearable devices on different body parts, using contrastive learning to separate global and local motion features. It fuses global features based on the data reliability of each device to capture overall motion trends and employs an attention mechanism to uncover cross-device correlations in local features, extracting motion details helpful for accurate localization. To evaluate our method, we construct a real-life flexiwear bodynet dataset, incorporating Apple Suite (iPhone, Apple Watch, and AirPods) across diverse walking modes and device configurations. Experimental results demonstrate that Suite-IN++ achieves superior localization accuracy and robustness, significantly outperforming state-of-the-art models in real-life pedestrian tracking scenarios.
- Abstract(参考訳): ウェアラブル技術の普及により、スマートフォン、スマートウォッチ、ヘッドフォンなどの多デバイスエコシステムが、ユビキタスな歩行者のローカライゼーションに欠かせない存在となった。
しかし、従来の歩行者死亡推定法(PDR)は様々な動作モードに苦しむ一方、データ駆動方式は精度が向上したにもかかわらず、単一デバイスに頼っているため堅牢性に欠けることが多い。
そのため、既存のウェアラブルデバイスをフル活用してフレキシウェアのボディーネットを作り、堅牢で正確な歩行者位置を特定することが期待できる。
本稿では、フレキシウェアボディーネットを用いた歩行者位置推定のためのディープラーニングフレームワーク、 Suite-IN++を提案する。
Suite-IN++は、異なるボディパーツ上のウェアラブルデバイスからのモーションデータをコントラスト学習を使用して統合し、グローバルとローカルのモーション機能を分離する。
それは、各デバイスのデータの信頼性に基づいてグローバルな特徴を融合し、全体の動きの傾向を捉え、局所的な特徴のデバイス間相関を明らかにするための注意機構を使用し、正確な位置付けに役立つ動きの詳細を抽出する。
提案手法を評価するために,Apple Suite(iPhone,Apple Watch,AirPods)を様々な歩行モードおよびデバイス構成に組み込んだ,実生活用フレキシウェアボディーネットデータセットを構築した。
実験により, Suite-IN++はより優れたローカライゼーション精度とロバスト性を実現し,実生活における歩行者追跡シナリオにおける最先端モデルよりも優れた性能を示した。
関連論文リスト
- Suite-IN: Aggregating Motion Features from Apple Suite for Robust Inertial Navigation [10.634236058278722]
異なる身体部位のセンサーが捉えた動きデータには、局所的な動き情報とグローバルな動き情報の両方が含まれている。
慣性ナビゲーションのためのApple Suiteからの動作データを集約するマルチデバイスディープラーニングフレームワーク Suite-INを提案する。
論文 参考訳(メタデータ) (2024-11-12T14:23:52Z) - Advancing Location-Invariant and Device-Agnostic Motion Activity
Recognition on Wearable Devices [6.557453686071467]
センサ位置をまたいだ運動モデルの一般化可能性に関する総合的な評価を行う。
我々の分析は、この課題を強調し、位置不変モデルを構築する上で重要な位置を特定する。
本稿では,センサ配置に関係なく,デバイス上での動作モデルを単一モデルから91.41%のフレームレベルF1スコアに展開する。
論文 参考訳(メタデータ) (2024-02-06T05:10:00Z) - SparsePoser: Real-time Full-body Motion Reconstruction from Sparse Data [1.494051815405093]
SparsePoserは、スパースデータから全身のポーズを再構築するための、新しいディープラーニングベースのソリューションである。
このシステムには、高品質な連続した人間のポーズを合成する畳み込み型オートエンコーダが組み込まれている。
本手法は,IMUセンサや6-DoFトラッキングデバイスを用いた最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T18:48:01Z) - AnyDoor: Zero-shot Object-level Image Customization [63.44307304097742]
ユーザが指定した場所の新しいシーンにターゲットオブジェクトをテレポートする機能を備えた拡散ベースのイメージジェネレータであるAnyDoorを紹介する。
我々のモデルは1回のみ訓練され、推論段階では多様なオブジェクトとシーンの組み合わせに懸命に一般化される。
論文 参考訳(メタデータ) (2023-07-18T17:59:02Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - Federated Learning with Downlink Device Selection [92.14944020945846]
我々は,無線ネットワークのエッジにおいて,プライバシーに敏感なデータを用いてグローバルモデルを協調訓練するフェデレーションエッジ学習について検討した。
パラメータサーバ(PS)は、グローバルモデルを追跡し、無線エッジデバイスと共有して、プライベートローカルデータを使用したトレーニングを行う。
デバイス選択は、PSがデバイスとグローバルモデルを共有するダウンリンクチャネルに基づいて検討する。
論文 参考訳(メタデータ) (2021-07-07T22:42:39Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Federated and continual learning for classification tasks in a society
of devices [59.45414406974091]
Light Federated and Continual Consensus (LFedCon2)は、軽量で伝統的な学習者を用いた新しいフェデレーションおよび継続アーキテクチャである。
我々の方法では、スマートフォンやロボットのような無力デバイスが、リアルタイムで、ローカルで、継続的に、自律的に、そしてユーザーから学習することができる。
提案手法をスマートフォン利用者の異種コミュニティに適用し,歩行認識の課題を解決した。
論文 参考訳(メタデータ) (2020-06-12T12:37:03Z) - MDLdroid: a ChainSGD-reduce Approach to Mobile Deep Learning for
Personal Mobile Sensing [14.574274428615666]
デバイス上でのディープラーニングの実行には、データのプライバシ保護や、モデルの堅牢性とアップデートの両方に対する低レイテンシ応答など、いくつかのメリットがある。
パーソナルモバイルセンシングアプリケーションは、主にユーザ固有であり、環境の影響を受けやすい。
我々は,デバイス上での協調学習を実現するために,新たな分散モバイルディープラーニングフレームワークであるMDLdroidを提案する。
論文 参考訳(メタデータ) (2020-02-07T16:55:21Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。