論文の概要: Active Perception for Tactile Sensing: A Task-Agnostic Attention-Based Approach
- arxiv url: http://arxiv.org/abs/2505.06182v1
- Date: Fri, 09 May 2025 16:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.345448
- Title: Active Perception for Tactile Sensing: A Task-Agnostic Attention-Based Approach
- Title(参考訳): 触覚のアクティブ・パーセプション:タスクに依存しない注意に基づくアプローチ
- Authors: Tim Schneider, Cristiana de Farias, Roberto Calandra, Liming Chen, Jan Peters,
- Abstract要約: ロボット工学において、アクティブな触覚は重要な研究領域として現れている。
この研究は、部分的に観察可能な環境がもたらす課題に対処するために、TAP(Task-Agnostic Active Perception)を導入している。
設計上、TAPは完全にタスクに依存しず、原則としてあらゆるアクティブな知覚問題に一般化することができる。
- 参考スコア(独自算出の注目度): 20.92963712967206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans make extensive use of haptic exploration to map and identify the properties of the objects that we touch. In robotics, active tactile perception has emerged as an important research domain that complements vision for tasks such as object classification, shape reconstruction, and manipulation. This work introduces TAP (Task-agnostic Active Perception) -- a novel framework that leverages reinforcement learning (RL) and transformer-based architectures to address the challenges posed by partially observable environments. TAP integrates Soft Actor-Critic (SAC) and CrossQ algorithms within a unified optimization objective, jointly training a perception module and decision-making policy. By design, TAP is completely task-agnostic and can, in principle, generalize to any active perception problem. We evaluate TAP across diverse tasks, including toy examples and realistic applications involving haptic exploration of 3D models from the Tactile MNIST benchmark. Experiments demonstrate the efficacy of TAP, achieving high accuracies on the Tactile MNIST haptic digit recognition task and a tactile pose estimation task. These findings underscore the potential of TAP as a versatile and generalizable framework for advancing active tactile perception in robotics.
- Abstract(参考訳): 人間は触覚探索を広範囲に利用して、触れる物体の特性をマッピングし識別します。
ロボット工学において、能動的触覚知覚は、物体分類、形状再構成、操作といったタスクの視覚を補完する重要な研究領域として登場した。
TAP(Task-Agnostic Active Perception)は、強化学習(RL)とトランスフォーマーベースのアーキテクチャを活用し、部分的に観測可能な環境がもたらす課題に対処する新しいフレームワークである。
TAPは、Soft Actor-Critic(SAC)とCrossQアルゴリズムを統一最適化目標に統合し、認識モジュールと意思決定ポリシーを共同でトレーニングする。
設計上、TAPは完全にタスクに依存しず、原則としてあらゆるアクティブな知覚問題に一般化することができる。
我々は,Tactile MNISTベンチマークによる3次元モデルの触覚探索を含むおもちゃの例や現実的な応用など,多種多様なタスクを対象としたTAPの評価を行った。
触覚的MNIST触覚的数字認識タスクと触覚的ポーズ推定タスクにおいて,TAPの有効性を示す実験を行った。
これらの知見は、ロボット工学における能動的触覚知覚を促進するための汎用的で汎用的な枠組みとしてのTAPの可能性を示している。
関連論文リスト
- Affordance-Guided Reinforcement Learning via Visual Prompting [51.361977466993345]
Keypoint-based Affordance Guidance for Improvements (KAGI) は、視覚言語モデル(VLM)によって形成される報酬を自律的なRLに活用する手法である。
自然言語記述によって指定された実世界の操作タスクにおいて、KAGIは自律的なRLのサンプル効率を改善し、30Kのオンライン微調整ステップでタスク完了を成功させる。
論文 参考訳(メタデータ) (2024-07-14T21:41:29Z) - Deep Active Perception for Object Detection using Navigation Proposals [39.52573252842573]
オブジェクト検出のための汎用的な教師付き能動知覚パイプラインを提案する。
既存のオフ・ザ・シェルフ・オブジェクト・ディテクターを使って訓練でき、シミュレーション環境の進歩も活用できる。
提案手法は, Webots ロボットシミュレータ内に構築された合成データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-12-15T20:55:52Z) - Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - AcTExplore: Active Tactile Exploration of Unknown Objects [17.755567328263847]
本稿では, 大規模オブジェクト再構成のための強化学習による能動的触覚探索手法であるAcTExploreを提案する。
本アルゴリズムは, 触覚データを段階的に収集し, 物体の3次元形状を再構築する。
本手法は, 未確認のYCBオブジェクトに対して平均95.97%のIoUカバレッジを達成し, 原始形状でのみ訓練する。
論文 参考訳(メタデータ) (2023-10-12T22:15:06Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Active Visual Search in the Wild [12.354788629408933]
本稿では,フリーフォーム言語を用いてターゲットコマンドを入力できるシステムを提案する。
私たちはこのシステムをActive Visual Search in the Wild (AVSW)と呼んでいる。
AVSWは、静的なランドマークで表されるセマンティックグリッドマップを通じて、ユーザが入力したターゲットオブジェクトを検出し、検索する計画である。
論文 参考訳(メタデータ) (2022-09-19T07:18:46Z) - Continual Object Detection via Prototypical Task Correlation Guided
Gating Mechanism [120.1998866178014]
pRotOtypeal taSk corrElaTion guided gaTingAnism (ROSETTA)による連続物体検出のためのフレキシブルなフレームワークを提案する。
具体的には、統一されたフレームワークはすべてのタスクで共有され、タスク対応ゲートは特定のタスクのサブモデルを自動的に選択するために導入されます。
COCO-VOC、KITTI-Kitchen、VOCのクラスインクリメンタル検出、および4つのタスクの逐次学習の実験により、ROSETTAが最先端のパフォーマンスを得ることが示された。
論文 参考訳(メタデータ) (2022-05-06T07:31:28Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Dynamic Feature Integration for Simultaneous Detection of Salient
Object, Edge and Skeleton [108.01007935498104]
本稿では,高次物体分割,エッジ検出,スケルトン抽出など,低レベルの3つの視覚問題を解く。
まず、これらのタスクで共有される類似点を示し、統一されたフレームワークの開発にどのように活用できるかを示す。
論文 参考訳(メタデータ) (2020-04-18T11:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。