論文の概要: Impact Makes a Sound and Sound Makes an Impact: Sound Guides
Representations and Explorations
- arxiv url: http://arxiv.org/abs/2208.02680v1
- Date: Thu, 4 Aug 2022 14:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 13:13:55.249732
- Title: Impact Makes a Sound and Sound Makes an Impact: Sound Guides
Representations and Explorations
- Title(参考訳): 音と音が与える影響: サウンドガイドによる表現と探索
- Authors: Xufeng Zhao, Cornelius Weber, Muhammad Burhan Hafez, Stefan Wermter
- Abstract要約: 我々は物理に基づく音響シミュレーションによる現実的なロボット操作シナリオを構築し、本質的な音キュリオシティモジュール(ISCM)を提案する。
ISCMは、堅牢な表現を学び、より効率的な探索行動に報いるために、強化学習者にフィードバックを提供する。
本研究は, 適応中, 適応中, 適応中に有効となる音による実験を行い, ISCM が学習した表現が, 視力のみのベースラインでより優れており, 訓練済みポリシーが下流タスクに適用した場合の学習プロセスの高速化を図っていることを示す。
- 参考スコア(独自算出の注目度): 17.356402088852423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sound is one of the most informative and abundant modalities in the real
world while being robust to sense without contacts by small and cheap sensors
that can be placed on mobile devices. Although deep learning is capable of
extracting information from multiple sensory inputs, there has been little use
of sound for the control and learning of robotic actions. For unsupervised
reinforcement learning, an agent is expected to actively collect experiences
and jointly learn representations and policies in a self-supervised way. We
build realistic robotic manipulation scenarios with physics-based sound
simulation and propose the Intrinsic Sound Curiosity Module (ISCM). The ISCM
provides feedback to a reinforcement learner to learn robust representations
and to reward a more efficient exploration behavior. We perform experiments
with sound enabled during pre-training and disabled during adaptation, and show
that representations learned by ISCM outperform the ones by vision-only
baselines and pre-trained policies can accelerate the learning process when
applied to downstream tasks.
- Abstract(参考訳): 音は、モバイルデバイスに設置できる小型で安価なセンサーと接触することなく、知覚しやすくながら、現実世界でもっとも有意義で豊富なモダリティの1つだ。
深層学習は複数の感覚入力から情報を抽出することができるが、ロボット動作の制御と学習には音がほとんど使われていない。
教師なし強化学習では、エージェントが積極的に経験を収集し、自己指導的な方法で表現とポリシーを共同で学習することが期待される。
物理に基づく音響シミュレーションによる現実的なロボット操作シナリオを構築し,ISCM(Intrinsic Sound Curiosity Module)を提案する。
iscmは強化学習者にフィードバックを提供し、堅牢な表現を学び、より効率的な探索行動に報いる。
本研究は,事前学習中に音を有効にし,適応中に無力化する実験を行い,iscmが学習した表現が,視覚のみのベースラインと事前学習されたポリシーで学習プロセスを高速化できることを示す。
関連論文リスト
- Hearing Touch: Audio-Visual Pretraining for Contact-Rich Manipulation [13.026061233933435]
現在のパラダイムは視覚表現のための大規模な事前訓練のみを実行する。
触覚などの他のモダリティを事前訓練するために、インターネットスケールのデータがどのように使われるのかは不明だ。
本稿では,コンタクトマイクを代替触覚センサとして利用することで,このギャップに対処する。
論文 参考訳(メタデータ) (2024-05-14T13:16:46Z) - Dyna-LfLH: Learning Agile Navigation in Dynamic Environments from Learned Hallucination [37.0993566629277]
本稿では,地上ロボットが動的障害物を伴って環境をナビゲートするための運動プランナを安全に学習するための自己指導型学習手法を提案する。
新たに開発したDynamic Learning from Learned Hallucination (Dyna-LfLH)では,新しい潜伏分布の設計と学習を行い,そこから動的障害を抽出する。
Dyna-LfLHは、シミュレーションされた環境と物理的環境の両方において地上ロボット上で評価され、ベースラインと比較して最大25%高い成功率を達成する。
論文 参考訳(メタデータ) (2024-03-25T22:17:51Z) - The Power of the Senses: Generalizable Manipulation from Vision and
Touch through Masked Multimodal Learning [60.91637862768949]
強化学習環境における視覚的・触覚的情報を融合するためのマスク付きマルチモーダル学習(M3L)を提案する。
M3Lは、マスク付きオートエンコーディングに基づいて、ポリシーと視覚触覚表現を学習する。
視覚と触覚の両方の観察を行い、3つの模擬環境におけるM3Lの評価を行った。
論文 参考訳(メタデータ) (2023-11-02T01:33:00Z) - Denoised MDPs: Learning World Models Better Than the World Itself [94.74665254213588]
本研究は,野生の情報を制御可能性と報酬との関係に基づく4つのタイプに分類し,制御性および報酬関連性の両方に有用な情報を定式化する。
DeepMind Control Suite と RoboDesk の変種に関する実験では、生の観測のみを用いた場合よりも、認知された世界モデルの優れた性能が示されている。
論文 参考訳(メタデータ) (2022-06-30T17:59:49Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Agents that Listen: High-Throughput Reinforcement Learning with Multiple
Sensory Systems [6.952659395337689]
そこで我々は,VizDoomシミュレータの新バージョンを導入し,生の音声を観察する高効率な学習環境を構築した。
私たちはエージェントにDoomのフルゲームをするように訓練し、従来のビジョンベースの敵を一貫して打ち負かすことができることに気付きました。
論文 参考訳(メタデータ) (2021-07-05T18:00:50Z) - Offline Learning of Counterfactual Predictions for Real-World Robotic
Reinforcement Learning [9.86154691244963]
我々はマニピュレータの関節速度にマルチモーダル感覚観測(ビジョンと力)をマッピングする政策を訓練する。
オンライン政策学習におけるオフライン学習の反事実予測と強制フィードバックを組み合わせることで,効果的な強化学習が可能になることを示す。
論文 参考訳(メタデータ) (2020-11-11T15:45:17Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Noisy Agents: Self-supervised Exploration by Predicting Auditory Events [127.82594819117753]
本稿では, エージェントが行動の因果的影響を理解することを奨励する, 強化学習(Reinforcement Learning, RL)の本質的なモチベーションを提案する。
ニューラルネットワークを用いて聴覚事象を予測し、予測誤差を本質的な報奨として利用し、RL探索を誘導する。
Atariゲームの実験結果から、我々の新しい本質的な動機は、最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。