論文の概要: Feature Pyramid biLSTM: Using Smartphone Sensors for Transportation Mode
Detection
- arxiv url: http://arxiv.org/abs/2310.11087v1
- Date: Tue, 17 Oct 2023 09:13:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 16:52:37.342078
- Title: Feature Pyramid biLSTM: Using Smartphone Sensors for Transportation Mode
Detection
- Title(参考訳): feature pyramid bilstm: 移動モード検出にスマートフォンセンサを使用する
- Authors: Qinrui Tang, Hao Cheng
- Abstract要約: そこで本研究では,スマートフォンから収集したセンサデータの量を削減するために,新たなエンドツーエンドアプローチを提案する。
提案手法はFPbiLSTM(Feature Pyramid biLSTM)と呼ばれ,必要なセンサ数と処理要求を削減できることが特徴である。
FPbiLSTMはFeature Pyramid Networkで既存のCNN biLSTMモデルを拡張し、浅い層と深い層の特徴レジリエンスの両方の利点を活用する。
- 参考スコア(独自算出の注目度): 5.182070755214674
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread utilization of smartphones has provided extensive availability
to Inertial Measurement Units, providing a wide range of sensory data that can
be advantageous for the detection of transportation modes. The objective of
this study is to propose a novel end-to-end approach to effectively explore a
reduced amount of sensory data collected from a smartphone to achieve accurate
mode detection in common daily traveling activities. Our approach, called
Feature Pyramid biLSTM (FPbiLSTM), is characterized by its ability to reduce
the number of sensors required and processing demands, resulting in a more
efficient modeling process without sacrificing the quality of the outcomes than
the other current models. FPbiLSTM extends an existing CNN biLSTM model with
the Feature Pyramid Network, leveraging the advantages of both shallow layer
richness and deeper layer feature resilience for capturing temporal moving
patterns in various transportation modes. It exhibits an excellent performance
by employing the data collected from only three out of seven sensors, i.e.
accelerometers, gyroscopes, and magnetometers, in the 2018 Sussex-Huawei
Locomotion (SHL) challenge dataset, attaining a noteworthy accuracy of 95.1%
and an F1-score of 94.7% in detecting eight different transportation modes.
- Abstract(参考訳): スマートフォンの広範な利用は、慣性測定ユニットに広範な可用性を提供し、輸送モードの検出に有利な幅広いセンサーデータを提供する。
本研究の目的は,スマートフォンから収集したセンサデータ量の削減を効果的に探索し,日常の日常行動において正確なモード検出を実現するための,新しいエンドツーエンドアプローチを提案することである。
提案手法は,FPbiLSTM (Feature Pyramid biLSTM) と呼ばれ,センサの数を削減し,処理要求を低減し,その結果,既存のモデルよりも精度を犠牲にすることなく,より効率的なモデリングプロセスを実現する。
FPbiLSTMは、様々な輸送モードにおける時間移動パターンを捉えるために、浅い層豊かさと深い層の特徴レジリエンスの両方の利点を生かして、既存のCNN biLSTMモデルをFeature Pyramid Networkで拡張する。
2018年のSussex-Huawei Locomotion (SHL)チャレンジデータセットでは、7つのセンサーのうち3つ(加速度計、ジャイロスコープ、磁力計)から収集されたデータを使用し、95.1%の精度とF1スコアの94.7%の8つの異なる輸送モードを検出する。
関連論文リスト
- Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - An LSTM Feature Imitation Network for Hand Movement Recognition from sEMG Signals [2.632402517354116]
我々は,Ninapro DB2上の300ms信号ウィンドウ上での閉形式時間特徴学習にFIN(Feature-imitating Network)を適用することを提案する。
次に、下流手の動き認識タスクに事前学習したLSTM-FINを適用して、転送学習機能について検討する。
論文 参考訳(メタデータ) (2024-05-23T21:45:15Z) - Self-Supervised Multimodal Fusion Transformer for Passive Activity
Recognition [2.35066982314539]
Wi-Fi信号は、医療などの分野において、人間の知覚と活動認識に重要な機会を提供する。
現在のシステムでは、複数のセンサーから取得した情報を効果的に利用して、異なるアクティビティを認識することはできない。
本稿では,マルチモーダル・マルチセンサ融合のための注意モデルであるFusion Transformerを提案する。
論文 参考訳(メタデータ) (2022-08-15T15:38:10Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - CROMOSim: A Deep Learning-based Cross-modality Inertial Measurement
Simulator [7.50015216403068]
慣性測定装置 (IMU) のデータは, 人体移動の監視と評価に利用されてきた。
データ不足を緩和するため,クロスモーダルセンサシミュレータであるCROMOSimを設計した。
モーションキャプチャシステムや単眼RGBカメラから高忠実度仮想IMUセンサーデータをシミュレートする。
論文 参考訳(メタデータ) (2022-02-21T22:30:43Z) - Improved YOLOv5 network for real-time multi-scale traffic sign detection [4.5598087061051755]
本稿では,アダプティブアテンションモジュール (AAM) と機能拡張モジュール (FEM) を利用して特徴マップ生成の過程での情報損失を低減する機能ピラミッドモデル AF-FPN を提案する。
YOLOv5の本来の特徴ピラミッドネットワークをAF-FPNに置き換え、YOLOv5ネットワークのマルチスケールターゲットの検出性能を向上させる。
論文 参考訳(メタデータ) (2021-12-16T11:02:12Z) - Object recognition for robotics from tactile time series data utilising
different neural network architectures [0.0]
本稿では,コンボリューショナルニューラルネットワーク(CNN)とLong-Short Term Memory(LSTM)ニューラルネットワークアーキテクチャを用いて,触覚データに基づくオブジェクト分類を行う。
我々は,2種類の指先センサ(BioTac SPとWTS-FT)のデータを用いて,これらの手法を比較した。
提案手法は,全時系列データを用いた最大精度を82.4% (BioTac SP fingertips) と90.7% (WTS-FT fingertips) から約94% に改善した。
論文 参考訳(メタデータ) (2021-09-09T22:05:45Z) - SensiX++: Bringing MLOPs and Multi-tenant Model Serving to Sensory Edge
Devices [69.1412199244903]
エッジデバイス上でMLOpsを統合した,適応モデル実行のためのマルチテナントランタイムを提案する。
S SensiX++は、高度にモジュール化されたコンポーネント化と、明確な抽象化によるデータ操作の外部化と、システム全体のオーケストレーションのためのドキュメント中心の宣言という、2つの基本原則で運用されている。
SensiX++のさまざまな自動化コンポーネントの全体的なスループットと定量化メリットについて報告し、運用の複雑さを著しく低減し、エッジデバイスへの組み込みモデルのデプロイ、アップグレード、再構成、提供の労力を削減する効果を実証する。
論文 参考訳(メタデータ) (2021-09-08T22:06:16Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。