論文の概要: Augmenting Deep Learning Adaptation for Wearable Sensor Data through
Combined Temporal-Frequency Image Encoding
- arxiv url: http://arxiv.org/abs/2307.00883v1
- Date: Mon, 3 Jul 2023 09:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 13:38:23.500921
- Title: Augmenting Deep Learning Adaptation for Wearable Sensor Data through
Combined Temporal-Frequency Image Encoding
- Title(参考訳): 複合時間周波数画像符号化によるウェアラブルセンサデータの深層学習適応化
- Authors: Yidong Zhu, Md Mahmudur Rahman, Mohammad Arif Ul Alam
- Abstract要約: 本稿では、時間領域情報と周波数領域情報をシームレスに統合した、新しい修正繰り返しプロットベースの画像表現を提案する。
加速度センサを用いた活動認識データと事前訓練されたResNetモデルを用いて提案手法の評価を行い,既存の手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 4.458210211781739
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning advancements have revolutionized scalable classification in
many domains including computer vision. However, when it comes to
wearable-based classification and domain adaptation, existing computer
vision-based deep learning architectures and pretrained models trained on
thousands of labeled images for months fall short. This is primarily because
wearable sensor data necessitates sensor-specific preprocessing, architectural
modification, and extensive data collection. To overcome these challenges,
researchers have proposed encoding of wearable temporal sensor data in images
using recurrent plots. In this paper, we present a novel modified-recurrent
plot-based image representation that seamlessly integrates both temporal and
frequency domain information. Our approach incorporates an efficient Fourier
transform-based frequency domain angular difference estimation scheme in
conjunction with the existing temporal recurrent plot image. Furthermore, we
employ mixup image augmentation to enhance the representation. We evaluate the
proposed method using accelerometer-based activity recognition data and a
pretrained ResNet model, and demonstrate its superior performance compared to
existing approaches.
- Abstract(参考訳): ディープラーニングの進歩は、コンピュータビジョンを含む多くの領域でスケーラブルな分類に革命をもたらした。
しかし、ウェアラブルベースの分類とドメイン適応に関しては、既存のコンピュータビジョンベースのディープラーニングアーキテクチャと、数ヵ月間数千のラベル付きイメージでトレーニングされたトレーニング済みモデルが不足している。
これは、ウェアラブルセンサーデータがセンサー固有の前処理、アーキテクチャの変更、広範なデータ収集を必要とするためである。
これらの課題を克服するため、研究者は反復プロットを用いた画像中のウェアラブル時空間センサデータのエンコーディングを提案している。
本稿では,時間領域情報と周波数領域情報の両方をシームレスに統合した,修正再帰プロットに基づく画像表現を提案する。
提案手法では,従来の時間的再帰プロット画像と連動して,フーリエ変換に基づく周波数領域角差推定手法を取り入れた。
さらに,表現性を高めるために混合画像拡張を用いる。
加速度センサを用いた活動認識データと事前訓練されたResNetモデルを用いて提案手法の評価を行い,既存の手法と比較して優れた性能を示す。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Adaptive Domain Learning for Cross-domain Image Denoising [57.4030317607274]
本稿では,クロスドメイン画像認識のための適応型ドメイン学習手法を提案する。
私たちは、異なるセンサー(ソースドメイン)からの既存のデータに加えて、新しいセンサー(ターゲットドメイン)からの少量のデータを使用します。
ADLトレーニングスキームは、ターゲットドメインのモデルを微調整するのに有害なソースドメイン内のデータを自動的に削除する。
また,センサ固有の情報(センサタイプとISO)を取り入れ,画像認識のための入力データを理解するための変調モジュールも導入した。
論文 参考訳(メタデータ) (2024-11-03T08:08:26Z) - Descriptor: Face Detection Dataset for Programmable Threshold-Based Sparse-Vision [0.8271394038014485]
このデータセットは、Aff-Wild2で使用されるのと同じビデオから派生した顔検出タスクのための注釈付き、時間閾値ベースの視覚データセットである。
我々は,このリソースが時間差閾値に基づいて処理できるスマートセンサに基づく堅牢な視覚システムの開発を支援することを期待する。
論文 参考訳(メタデータ) (2024-10-01T03:42:03Z) - Training and Predicting Visual Error for Real-Time Applications [6.687091041822445]
コンボリューションニューラルネットワークが参照または描画画像を必要とすることなく、様々な視覚メトリクスを予測する能力について検討する。
我々のソリューションは、ほとんどの最先端の遅延シェーディングパイプラインで容易に利用できる画像空間情報と、以前のフレームからの再投影を組み合わせることで、視覚的エラーを適切に見積もることができる。
論文 参考訳(メタデータ) (2023-10-13T14:14:00Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Spatio-Temporal Recurrent Networks for Event-Based Optical Flow
Estimation [47.984368369734995]
本稿では,イベントベース光フロー推定のためのニューラルネットアーキテクチャを提案する。
このネットワークは、Multi-Vehicle Stereo Event Cameraデータセット上で、セルフ教師付き学習でエンドツーエンドにトレーニングされている。
既存の最先端の手法を大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2021-09-10T13:37:37Z) - Time Series Imaging for Link Layer Anomaly Classification in Wireless
Networks [0.6015898117103068]
本稿では,無線異常検出のための画像ベース表現手法の初回解析を行う。
本稿では,正確な異常検出を可能にする新しいディープラーニングアーキテクチャを提案する。
本研究では,時系列信号から画像への変換による分類性能の向上の可能性を示す。
論文 参考訳(メタデータ) (2021-04-02T10:23:06Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Temporal signals to images: Monitoring the condition of industrial
assets with deep learning image processing algorithms [3.9023554886892438]
本稿では,文献に見られる画像符号化手法の信号について概説する。
我々は、大規模なデータセットの変動性に対してより堅牢になるように、元の定式化のいくつかを変更することを提案する。
選択された符号化方法は、Gramian Angular Field、Markov Transition Field、Recurrentence plot、グレイスケールエンコーディング、Spectrogram、 scalogramである。
論文 参考訳(メタデータ) (2020-05-14T14:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。