論文の概要: More to Less (M2L): Enhanced Health Recognition in the Wild with Reduced
Modality of Wearable Sensors
- arxiv url: http://arxiv.org/abs/2202.08267v1
- Date: Wed, 16 Feb 2022 18:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:24:04.613281
- Title: More to Less (M2L): Enhanced Health Recognition in the Wild with Reduced
Modality of Wearable Sensors
- Title(参考訳): More to Less (M2L):ウェアラブルセンサのモダリティを低減した野生における健康認識の強化
- Authors: Huiyuan Yang, Han Yu, Kusha Sridhar, Thomas Vaessen, Inez Myin-Germeys
and Akane Sano
- Abstract要約: 複数のセンサーを融合することは、多くのアプリケーションで一般的なシナリオであるが、現実のシナリオでは必ずしも実現不可能であるとは限らない。
そこで本研究では,センサの小型化によるテスト性能向上のために,M2Lの少ない学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.947172818861773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately recognizing health-related conditions from wearable data is
crucial for improved healthcare outcomes. To improve the recognition accuracy,
various approaches have focused on how to effectively fuse information from
multiple sensors. Fusing multiple sensors is a common scenario in many
applications, but may not always be feasible in real-world scenarios. For
example, although combining bio-signals from multiple sensors (i.e., a chest
pad sensor and a wrist wearable sensor) has been proved effective for improved
performance, wearing multiple devices might be impractical in the free-living
context. To solve the challenges, we propose an effective more to less (M2L)
learning framework to improve testing performance with reduced sensors through
leveraging the complementary information of multiple modalities during
training. More specifically, different sensors may carry different but
complementary information, and our model is designed to enforce collaborations
among different modalities, where positive knowledge transfer is encouraged and
negative knowledge transfer is suppressed, so that better representation is
learned for individual modalities. Our experimental results show that our
framework achieves comparable performance when compared with the full
modalities. Our code and results will be available at
https://github.com/compwell-org/More2Less.git.
- Abstract(参考訳): ウェアラブルデータから健康関連状態を正確に認識することは、医療結果の改善に不可欠である。
認識精度を向上させるために、複数のセンサからの情報を効果的に融合する方法に様々なアプローチが焦点を当てている。
複数のセンサーを融合することは、多くのアプリケーションで一般的なシナリオであるが、現実のシナリオでは必ずしも実現できない。
例えば、複数のセンサー(胸パッドセンサーと手首ウェアラブルセンサー)からの生体信号の組み合わせは、性能向上に有効であることが証明されているが、複数のデバイスを装着することは、自由生活環境では実用的ではないかもしれない。
課題を解決するために,複数モードの補完情報を活用し,センサの低減によるテスト性能向上を目的とした,より効果的なm2l学習フレームワークを提案する。
より具体的には、異なるセンサーは異なるが補完的な情報を持ち、このモデルは、ポジティブな知識伝達が奨励され、ネガティブな知識伝達が抑制される異なるモダリティ間のコラボレーションを強制するように設計されており、個々のモダリティに対してより良い表現が学習される。
実験の結果,本フレームワークは完全なモダリティと比較して同等の性能が得られることがわかった。
私たちのコードと結果はhttps://github.com/compwell-org/more2less.gitで入手できる。
関連論文リスト
- Modality-Incremental Learning with Disjoint Relevance Mapping Networks for Image-based Semantic Segmentation [13.137604149999973]
自律運転では、多様なセンサーが悪天候や照明条件に対する堅牢性に寄与する。
継続的学習の文脈では、インクリメンタル学習は特に大きなドメインシフトにおいて困難である。
本稿では,新しいモダリティを段階的に学習し,以前に学習したモダリティの性能を保ちながら,改良されたレバレンスマッピングネットワーク(RMN)を提案する。
論文 参考訳(メタデータ) (2024-11-26T17:21:53Z) - MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、複数のセンサの融合を誘導するコンディショントークンを生成する。
MUSESデータセットでは,マルチモーダルパノプティクスセグメンテーションの59.7 PQ,セマンティックセグメンテーションの78.2 mIoU,公開ベンチマークの1位にランクインした。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - Virtual Fusion with Contrastive Learning for Single Sensor-based
Activity Recognition [5.225544155289783]
各種センサはHAR(Human Activity Recognition)に使用することができる。
1つのセンサーがユーザーの動きをその視点で完全に観察できない場合があり、誤った予測を引き起こす。
トレーニング中に複数のタイム同期センサーからラベル付けされていないデータを活用できる新しい方法であるVirtual Fusionを提案する。
論文 参考訳(メタデータ) (2023-12-01T17:03:27Z) - Log-Likelihood Score Level Fusion for Improved Cross-Sensor Smartphone
Periocular Recognition [52.15994166413364]
我々は、複数のコンパレータを融合させて、異なるスマートフォンの画像を比較する際に、眼周囲の性能を改善する。
我々は線形ロジスティック回帰に基づく確率的融合フレームワークを使用し、融合したスコアはログライクな比率になる傾向にある。
我々のフレームワークは、同じセンサとクロスセンサーのスコア分布が整列され、共通の確率領域にマッピングされるため、異なるデバイスからの信号を処理するためのエレガントでシンプルなソリューションも提供します。
論文 参考訳(メタデータ) (2023-11-02T13:43:44Z) - Multi-unit soft sensing permits few-shot learning [0.0]
知識が強い関連性を持つソフトセンサー学習タスク間で伝達されると、一般的に性能向上が達成される。
転送可能性に関する特に関係のあるケースは、同じタイプのソフトセンサーを、類似しているが物理的に異なるプロセスやユニットのために開発する場合である。
この設定で転送可能性を利用する手法を適用すると、マルチユニットソフトセンシングと呼ばれるものになります。
論文 参考訳(メタデータ) (2023-09-27T17:50:05Z) - Machine Learning Based Compensation for Inconsistencies in Knitted Force
Sensors [1.0742675209112622]
編まれたセンサーは、オフセット、緩和、漂流といった自然現象によってしばしば不整合に悩まされる。
本稿では,最小人工ニューラルネットワーク(ANN)を用いて処理することで,これに対応する方法を示す。
合計8個のニューロンを持つ3層ANNをトレーニングすることにより,センサ読み取りとアクティベーション力のマッピングを大幅に改善する。
論文 参考訳(メタデータ) (2023-06-21T09:19:33Z) - Unsupervised Statistical Feature-Guided Diffusion Model for Sensor-based Human Activity Recognition [3.2319909486685354]
ウェアラブルセンサーによる人間の活動認識の進歩を支えている重要な問題は、多様なラベル付きトレーニングデータの利用不可能である。
本研究では,ウェアラブルセンサを用いた人間行動認識に特化して最適化された,教師なしの統計的特徴誘導拡散モデルを提案する。
平均,標準偏差,Zスコア,歪などの統計情報に拡散モデルを適用し,多種多様な合成センサデータを生成する。
論文 参考訳(メタデータ) (2023-05-30T15:12:59Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。