論文の概要: More to Less (M2L): Enhanced Health Recognition in the Wild with Reduced
Modality of Wearable Sensors
- arxiv url: http://arxiv.org/abs/2202.08267v1
- Date: Wed, 16 Feb 2022 18:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:24:04.613281
- Title: More to Less (M2L): Enhanced Health Recognition in the Wild with Reduced
Modality of Wearable Sensors
- Title(参考訳): More to Less (M2L):ウェアラブルセンサのモダリティを低減した野生における健康認識の強化
- Authors: Huiyuan Yang, Han Yu, Kusha Sridhar, Thomas Vaessen, Inez Myin-Germeys
and Akane Sano
- Abstract要約: 複数のセンサーを融合することは、多くのアプリケーションで一般的なシナリオであるが、現実のシナリオでは必ずしも実現不可能であるとは限らない。
そこで本研究では,センサの小型化によるテスト性能向上のために,M2Lの少ない学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.947172818861773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately recognizing health-related conditions from wearable data is
crucial for improved healthcare outcomes. To improve the recognition accuracy,
various approaches have focused on how to effectively fuse information from
multiple sensors. Fusing multiple sensors is a common scenario in many
applications, but may not always be feasible in real-world scenarios. For
example, although combining bio-signals from multiple sensors (i.e., a chest
pad sensor and a wrist wearable sensor) has been proved effective for improved
performance, wearing multiple devices might be impractical in the free-living
context. To solve the challenges, we propose an effective more to less (M2L)
learning framework to improve testing performance with reduced sensors through
leveraging the complementary information of multiple modalities during
training. More specifically, different sensors may carry different but
complementary information, and our model is designed to enforce collaborations
among different modalities, where positive knowledge transfer is encouraged and
negative knowledge transfer is suppressed, so that better representation is
learned for individual modalities. Our experimental results show that our
framework achieves comparable performance when compared with the full
modalities. Our code and results will be available at
https://github.com/compwell-org/More2Less.git.
- Abstract(参考訳): ウェアラブルデータから健康関連状態を正確に認識することは、医療結果の改善に不可欠である。
認識精度を向上させるために、複数のセンサからの情報を効果的に融合する方法に様々なアプローチが焦点を当てている。
複数のセンサーを融合することは、多くのアプリケーションで一般的なシナリオであるが、現実のシナリオでは必ずしも実現できない。
例えば、複数のセンサー(胸パッドセンサーと手首ウェアラブルセンサー)からの生体信号の組み合わせは、性能向上に有効であることが証明されているが、複数のデバイスを装着することは、自由生活環境では実用的ではないかもしれない。
課題を解決するために,複数モードの補完情報を活用し,センサの低減によるテスト性能向上を目的とした,より効果的なm2l学習フレームワークを提案する。
より具体的には、異なるセンサーは異なるが補完的な情報を持ち、このモデルは、ポジティブな知識伝達が奨励され、ネガティブな知識伝達が抑制される異なるモダリティ間のコラボレーションを強制するように設計されており、個々のモダリティに対してより良い表現が学習される。
実験の結果,本フレームワークは完全なモダリティと比較して同等の性能が得られることがわかった。
私たちのコードと結果はhttps://github.com/compwell-org/more2less.gitで入手できる。
関連論文リスト
- Efficient Multi-Resolution Fusion for Remote Sensing Data with Label
Uncertainty [0.7832189413179361]
本稿では,画素レベルのトレーニングラベルを必要とせず,マルチモーダル・マルチレゾリューションリモートセンサデータを融合する新しい手法を提案する。
探索空間を削減し,MIMRFフレームワークの効率を大幅に改善する二元ファジィ測度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T17:34:32Z) - Virtual Fusion with Contrastive Learning for Single Sensor-based
Activity Recognition [5.225544155289783]
各種センサはHAR(Human Activity Recognition)に使用することができる。
1つのセンサーがユーザーの動きをその視点で完全に観察できない場合があり、誤った予測を引き起こす。
トレーニング中に複数のタイム同期センサーからラベル付けされていないデータを活用できる新しい方法であるVirtual Fusionを提案する。
論文 参考訳(メタデータ) (2023-12-01T17:03:27Z) - Contrastive Left-Right Wearable Sensors (IMUs) Consistency Matching for
HAR [0.0]
変換なしに、実際のデータを自己教師型学習にどのように使用できるかを示す。
我々のアプローチには、2つの異なるセンサーのコントラストマッチングが含まれる。
我々はオポチュニティとMM-Fitデータセットに対するアプローチを検証した。
論文 参考訳(メタデータ) (2023-11-21T15:31:16Z) - Log-Likelihood Score Level Fusion for Improved Cross-Sensor Smartphone
Periocular Recognition [52.15994166413364]
我々は、複数のコンパレータを融合させて、異なるスマートフォンの画像を比較する際に、眼周囲の性能を改善する。
我々は線形ロジスティック回帰に基づく確率的融合フレームワークを使用し、融合したスコアはログライクな比率になる傾向にある。
我々のフレームワークは、同じセンサとクロスセンサーのスコア分布が整列され、共通の確率領域にマッピングされるため、異なるデバイスからの信号を処理するためのエレガントでシンプルなソリューションも提供します。
論文 参考訳(メタデータ) (2023-11-02T13:43:44Z) - Multi-unit soft sensing permits few-shot learning [0.0]
本稿では,ユニット数の増加に伴ってソフトセンサがいかに一般化するかを考察する。
大規模な産業データセットを用いて、ソフトセンサーが十分な数のタスクから学習されると、新しいユニットからのデータに対するわずかなショットの学習が可能になることを実証した。
論文 参考訳(メタデータ) (2023-09-27T17:50:05Z) - Machine Learning Based Compensation for Inconsistencies in Knitted Force
Sensors [1.0742675209112622]
編まれたセンサーは、オフセット、緩和、漂流といった自然現象によってしばしば不整合に悩まされる。
本稿では,最小人工ニューラルネットワーク(ANN)を用いて処理することで,これに対応する方法を示す。
合計8個のニューロンを持つ3層ANNをトレーニングすることにより,センサ読み取りとアクティベーション力のマッピングを大幅に改善する。
論文 参考訳(メタデータ) (2023-06-21T09:19:33Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Bandit Quickest Changepoint Detection [55.855465482260165]
すべてのセンサの継続的な監視は、リソースの制約のためにコストがかかる可能性がある。
有限パラメータ化確率分布の一般クラスに対する検出遅延に基づく情報理論の下界を導出する。
本稿では,異なる検知オプションの探索と質問行動の活用をシームレスに両立させる,計算効率のよいオンラインセンシング手法を提案する。
論文 参考訳(メタデータ) (2021-07-22T07:25:35Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。