論文の概要: Saga: Capturing Multi-granularity Semantics from Massive Unlabelled IMU Data for User Perception
- arxiv url: http://arxiv.org/abs/2504.11726v1
- Date: Wed, 16 Apr 2025 03:03:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:36:56.705298
- Title: Saga: Capturing Multi-granularity Semantics from Massive Unlabelled IMU Data for User Perception
- Title(参考訳): 佐賀:ユーザ認識のための大規模非ラベルIMUデータから多粒度セマンティックスをキャプチャする
- Authors: Yunzhe Li, Facheng Hu, Hongzi Zhu, Shifan Zhang, Liang Zhang, Shan Chang, Minyi Guo,
- Abstract要約: 本稿では,ユーザ認識の精度を高めるために,少量のラベル付きIMUデータしか必要としないSagaという,ユーザ認識のきめ細かいアプローチを提案する。
Sagaの中核となるアイデアは、大量のIMUデータに埋め込まれた様々なレベルのリッチな意味情報を利用して、バックボーンの特徴抽出モデルを事前訓練することである。
Sagaは1万以上のトレーニングサンプルでトレーニングされた本格的なモデルの90%以上の精度を、追加のシステムオーバーヘッドなしで達成することができる。
- 参考スコア(独自算出の注目度): 16.9766171115035
- License:
- Abstract: Inertial measurement units (IMUs), have been prevalently used in a wide range of mobile perception applications such as activity recognition and user authentication, where a large amount of labelled data are normally required to train a satisfactory model. However, it is difficult to label micro-activities in massive IMU data due to the hardness of understanding raw IMU data and the lack of ground truth. In this paper, we propose a novel fine-grained user perception approach, called Saga, which only needs a small amount of labelled IMU data to achieve stunning user perception accuracy. The core idea of Saga is to first pre-train a backbone feature extraction model, utilizing the rich semantic information of different levels embedded in the massive unlabelled IMU data. Meanwhile, for a specific downstream user perception application, Bayesian Optimization is employed to determine the optimal weights for pre-training tasks involving different semantic levels. We implement Saga on five typical mobile phones and evaluate Saga on three typical tasks on three IMU datasets. Results show that when only using about 100 training samples per class, Saga can achieve over 90% accuracy of the full-fledged model trained on over ten thousands training samples with no additional system overhead.
- Abstract(参考訳): 慣性測定ユニット(IMU)は、アクティビティ認識やユーザ認証など、幅広いモバイル認識アプリケーションで広く使われている。
しかし、生のIMUデータの理解が困難であることや、真理の欠如により、大量のIMUデータにマイクロアクティビティをラベル付けることは困難である。
本稿では,ユーザ認識の精度を高めるために,少量のラベル付きIMUデータしか必要としないSagaという,ユーザ認識のきめ細かいアプローチを提案する。
Sagaの中核となるアイデアは、大量のIMUデータに埋め込まれた様々なレベルのリッチな意味情報を利用して、バックボーンの特徴抽出モデルを事前訓練することである。
一方、特定の下流ユーザ認識アプリケーションでは、ベイジアン最適化を用いて、異なる意味レベルを含む事前学習タスクの最適な重み付けを決定する。
我々は,Sagaを5つの携帯電話に実装し,Sagaを3つのIMUデータセット上で3つの典型的なタスクで評価する。
その結果,Sagaは1クラスあたり約100のトレーニングサンプルしか使用していない場合,システムオーバーヘッドを伴わない1万以上のトレーニングサンプルでトレーニングした完全学習モデルの90%以上の精度を達成できることがわかった。
関連論文リスト
- Mastering Collaborative Multi-modal Data Selection: A Focus on Informativeness, Uniqueness, and Representativeness [65.01625761120924]
我々は、貴重なサンプルはタスクを知らせ、非冗長であり、サンプル分布(つまり、外れ値ではない)を表すべきであると論じる。
我々は、効果的なデータ選択のために、インフォーマル性、ユニーク性、代表性という3つの重要な原則を活用するコラボレーティブフレームワーク、DataTailorを提案する。
様々なベンチマークの実験により、DataTailorはデータの15%でフルデータの微調整のパフォーマンスの100.8%を達成している。
論文 参考訳(メタデータ) (2024-12-09T08:36:10Z) - PRIMUS: Pretraining IMU Encoders with Multimodal Self-Supervision [7.896850422430362]
ラベルなしまたは弱いラベル付きIMUデータは、人間の動きをモデル化するために使用できる。
本稿では,新しい事前学習目標を用いたIMUエンコーダのPRIMUSを提案する。
PRIMUSは最先端のベースラインと比較して、テスト精度を最大15%改善する。
論文 参考訳(メタデータ) (2024-11-22T18:46:30Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - FewSOME: One-Class Few Shot Anomaly Detection with Siamese Networks [0.5735035463793008]
FewSOME (Few Shot anOMaly Detection) は深層一級異常検出アルゴリズムであり、異常を正確に検出できる。
FewSOMEは、Siamese Networksをベースとしたアーキテクチャで事前訓練されたウェイトによって支援されている。
我々の実験は、ベンチマークデータセット上でFewSOMEのパフォーマンスを最先端レベルで実証した。
論文 参考訳(メタデータ) (2023-01-17T15:32:34Z) - IMG2IMU: Translating Knowledge from Large-Scale Images to IMU Sensing
Applications [6.865654843241631]
IMG2IMUは、大規模画像から多様なIMUセンシングタスクに事前訓練された表現を適応させる。
我々は,センサデータを視覚的に解釈可能なスペクトログラムに変換し,視覚から得られる知識を活用する。
IMG2IMUは、センサーデータに基づいて事前訓練されたベースラインを平均9.6%p F1スコアで上回る。
論文 参考訳(メタデータ) (2022-09-02T11:00:23Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - GAIA: A Transfer Learning System of Object Detection that Fits Your
Needs [136.60609274344893]
大規模データセットの事前学習によるトランスファーラーニングは,コンピュータビジョンや自然言語処理において,ますます重要な役割を担っている。
本稿では,物体検出の領域に着目し,GAIAと呼ばれる移動学習システムを提案する。
GAIAは、レイテンシ制約や指定されたデータドメインなどの下流要求に適合するモデルを選択する、強力な事前訓練されたウェイトを提供することができる。
論文 参考訳(メタデータ) (2021-06-21T18:24:20Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Efficient Deep Representation Learning by Adaptive Latent Space Sampling [16.320898678521843]
監視されたディープラーニングには、アノテーションを備えた大量のトレーニングサンプルが必要です。
本稿では,学習プロセスに供給される情報サンプルを適応的に選択する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T22:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。