論文の概要: Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things
- arxiv url: http://arxiv.org/abs/2207.06789v1
- Date: Thu, 14 Jul 2022 10:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:22:21.136668
- Title: Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things
- Title(参考訳): 慣性幻覚 - ウェアラブル慣性デバイスが物を見るようになるとき
- Authors: Alessandro Masullo and Toby Perrett and Tilo Burghardt and Ian
Craddock and Dima Damen and Majid Mirmehdi
- Abstract要約: 環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
- 参考スコア(独自算出の注目度): 82.15959827765325
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a novel approach to multimodal sensor fusion for Ambient Assisted
Living (AAL) which takes advantage of learning using privileged information
(LUPI). We address two major shortcomings of standard multimodal approaches,
limited area coverage and reduced reliability. Our new framework fuses the
concept of modality hallucination with triplet learning to train a model with
different modalities to handle missing sensors at inference time. We evaluate
the proposed model on inertial data from a wearable accelerometer device, using
RGB videos and skeletons as privileged modalities, and show an improvement of
accuracy of an average 6.6% on the UTD-MHAD dataset and an average 5.5% on the
Berkeley MHAD dataset, reaching a new state-of-the-art for inertial-only
classification accuracy on these datasets. We validate our framework through
several ablation studies.
- Abstract(参考訳): 本稿では、特権情報(LUPI)を用いた学習を生かしたAAL(Ambient Assisted Living)のためのマルチモーダルセンサ融合手法を提案する。
標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーを扱う。
rgbビデオとスケルトンを特権モダリティとして用いたウェアラブル加速度計装置の慣性データに対する提案モデルを評価し,utd-mhadデータセットでは平均6.6%,バークレーmhadデータセットでは平均5.5%の精度向上を示し,これらのデータセットで慣性のみの識別精度を新たに達成した。
我々はいくつかのアブレーション研究を通じてその枠組みを検証する。
関連論文リスト
- Uncertainty-Aware Regression for Socio-Economic Estimation via Multi-View Remote Sensing [4.787295791127483]
3つのスペクトルバンドの組み合わせを用いてリモートセンシング画像を処理する新しいフレームワークを提案する。
我々のフレームワークは、不確実な予測を識別し、将来の真理データ取得を導くのに役立ちます。
論文 参考訳(メタデータ) (2024-11-21T13:42:24Z) - RADAR: Robust Two-stage Modality-incomplete Industrial Anomaly Detection [61.71770293720491]
本稿では,2段階のロバスト・モードアリティ不完全融合とFlaAmewoRkの検出について提案する。
我々のブートストラッピング哲学は、MIIADの2段階を強化し、マルチモーダルトランスの堅牢性を向上させることである。
実験の結果,提案手法は従来のMIAD法よりも有効性とロバスト性に優れていた。
論文 参考訳(メタデータ) (2024-10-02T16:47:55Z) - DeepLight: Reconstructing High-Resolution Observations of Nighttime Light With Multi-Modal Remote Sensing Data [4.89861083551325]
夜間光(NTL)リモートセンシング観測は、一連の持続可能な開発目標を達成するための進捗を定量的に評価するためのユニークなプロキシとして機能する。
本研究では,マルチモーダルリモートセンシングデータを用いた高解像度NTL画像の再構成手法を提案する。
論文 参考訳(メタデータ) (2024-02-24T00:25:22Z) - DaFoEs: Mixing Datasets towards the generalization of vision-state
deep-learning Force Estimation in Minimally Invasive Robotic Surgery [6.55111164866752]
深部神経モデルのトレーニングを行うために,様々なソフト環境を持つ新しい視覚触覚データセット(DaFoEs)を提案する。
また,単一入力や入力シーケンスを用いて腹腔鏡ツールが行う力を予測するための可変エンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T14:39:55Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - A Multimodal Sensor Fusion Framework Robust to Missing Modalities for
Person Recognition [2.436681150766912]
本稿では,オーディオ,可視,サーマルカメラを用いた新しい3モーダルセンサ融合フレームワークを提案する。
AVTNetと呼ばれる新しい潜伏埋め込みフレームワークは、複数の潜伏埋め込みを学ぶために提案されている。
ベースラインアルゴリズムとの比較分析により,提案手法は認識精度を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-10-20T02:39:48Z) - Cross-modal Knowledge Distillation for Vision-to-Sensor Action
Recognition [12.682984063354748]
本研究では、VSKDフレームワークをエンドツーエンドで導入する。
このVSKDフレームワークでは、テストフェーズ中にウェアラブルデバイスから必要となるのは時系列データ(加速度計データ)のみである。
このフレームワークは、エッジデバイスに対する計算要求を減らすだけでなく、計算コストのかかるマルチモーダルアプローチのパフォーマンスと密に一致した学習モデルも生成する。
論文 参考訳(メタデータ) (2021-10-08T15:06:38Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。