論文の概要: IMG2IMU: Applying Knowledge from Large-Scale Images to IMU Applications
via Contrastive Learning
- arxiv url: http://arxiv.org/abs/2209.00945v1
- Date: Fri, 2 Sep 2022 11:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:45:14.884696
- Title: IMG2IMU: Applying Knowledge from Large-Scale Images to IMU Applications
via Contrastive Learning
- Title(参考訳): IMG2IMU:コントラスト学習による大規模画像からの知識をIMUアプリケーションに適用する
- Authors: Hyungjun Yoon, Hyeongheon Cha, Canh Hoang Nguyen, Taesik Gong, Sung-Ju
Lee
- Abstract要約: IMG2IMUは、大規模画像から多種多様な小ショットIMUセンシングタスクへの事前訓練表現を適応させる新しいアプローチである。
我々は,センサデータを視覚的に解釈可能なスペクトログラムに変換し,視覚から得られる知識を活用する。
5種類のIMUセンシングタスクについて評価したところ,IGG2IMUはベースラインを一貫して上回っていることがわかった。
- 参考スコア(独自算出の注目度): 1.1399577852929499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in machine learning showed that pre-training representations
acquired via self-supervised learning could achieve high accuracy on tasks with
small training data. Unlike in vision and natural language processing domains,
such pre-training for IMU-based applications is challenging, as there are only
a few publicly available datasets with sufficient size and diversity to learn
generalizable representations. To overcome this problem, we propose IMG2IMU, a
novel approach that adapts pre-train representation from large-scale images to
diverse few-shot IMU sensing tasks. We convert the sensor data into visually
interpretable spectrograms for the model to utilize the knowledge gained from
vision. Further, we apply contrastive learning on an augmentation set we
designed to learn representations that are tailored to interpreting sensor
data. Our extensive evaluations on five different IMU sensing tasks show that
IMG2IMU consistently outperforms the baselines, illustrating that vision
knowledge can be incorporated into a few-shot learning environment for IMU
sensing tasks.
- Abstract(参考訳): 最近の機械学習の進歩により、自己教師付き学習によって得られる事前学習表現は、少ないトレーニングデータを持つタスクにおいて高い精度を達成することができる。
ビジョンや自然言語処理の領域とは異なり、imuベースのアプリケーションの事前トレーニングは困難であり、汎用的な表現を学ぶのに十分な大きさと多様性を持つ公開データセットはごくわずかである。
この問題を解決するために,大規模な画像から多種多様なショットIMUセンシングタスクへの事前訓練表現を適応させる新しいアプローチであるIGG2IMUを提案する。
センサデータを視覚的に解釈可能なスペクトログラムに変換し,視覚から得られる知識を活用する。
さらに,センサデータの解釈に適した表現を学習するための拡張集合に対して,コントラスト学習を適用した。
5つのIMUセンシングタスクに対する広範囲な評価は、IMG2IMUがベースラインを一貫して上回り、視覚知識をIMUセンシングタスクのための数発の学習環境に組み込むことができることを示している。
関連論文リスト
- Tackling Visual Control via Multi-View Exploration Maximization [64.8463574294237]
MEMは強化学習における多視点表現学習と報酬駆動探索を組み合わせた最初のアプローチである
我々は,DeepMind Control Suite と Procgen の様々なタスクにおける MEM の評価を行った。
論文 参考訳(メタデータ) (2022-11-28T11:29:56Z) - Multimodal Masked Autoencoders Learn Transferable Representations [127.35955819874063]
単純でスケーラブルなネットワークアーキテクチャであるM3AE(Multimodal Masked Autoencoder)を提案する。
M3AEは、マスク付きトークン予測により、視覚と言語データの両方の統一エンコーダを学習する。
我々は,大規模な画像テキストデータセット上で訓練されたM3AEについて実証的研究を行い,M3AEが下流タスクによく伝達される一般化可能な表現を学習できることを見出した。
論文 参考訳(メタデータ) (2022-05-27T19:09:42Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Multi-task learning from fixed-wing UAV images for 2D/3D city modeling [0.0]
マルチタスク学習(Multi-task learning)は、トレーニングデータに制限のある複数のタスクを含むシーン理解のアプローチである。
インフラ開発、交通監視、スマート3D都市、変更検出などの都市管理アプリケーションでは、自動マルチタスクデータ分析が必要である。
本研究では,2D/3D都市モデリングのための固定翼UAV画像を用いたマルチタスク学習手法の性能評価のための共通フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-25T14:45:42Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Sense and Learn: Self-Supervision for Omnipresent Sensors [9.442811508809994]
我々は、生の知覚データから表現や特徴学習のためのSense and Learnというフレームワークを提案する。
これは、面倒なラベル付けプロセスに人間が関与することなく、注釈のないデータから、高レベルで広範囲に有用な特徴を学習できる補助的なタスクで構成されている。
提案手法は、教師付きアプローチと競合する結果を達成し、ネットワークを微調整し、ほとんどの場合、下流タスクを学習することでギャップを埋める。
論文 参考訳(メタデータ) (2020-09-28T11:57:43Z) - DiVA: Diverse Visual Feature Aggregation for Deep Metric Learning [83.48587570246231]
視覚的類似性は多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
ディープ・メトリック・ラーニング(DML)は、そのような類似性を学ぶための強力なフレームワークである。
我々は,概念的に異なるデータ関係を対象とする複数の補完学習タスクを提案し,研究する。
我々は、訓練信号を集約する単一モデルを学び、その結果、強力な一般化と最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2020-04-28T12:26:50Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - A Deep Learning Method for Complex Human Activity Recognition Using
Virtual Wearable Sensors [22.923108537119685]
センサに基づくヒューマンアクティビティ認識(HAR)は、現在、複数のアプリケーション領域で研究ホットスポットとなっている。
本研究では,実シーンにおける複雑なHARの深層学習に基づく新しい手法を提案する。
提案手法は驚くほど数イテレーションで収束し、実際のIMUデータセット上で91.15%の精度が得られる。
論文 参考訳(メタデータ) (2020-03-04T03:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。