論文の概要: Audio-Based Tactile Human-Robot Interaction Recognition
- arxiv url: http://arxiv.org/abs/2512.11873v1
- Date: Sat, 06 Dec 2025 23:19:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.314346
- Title: Audio-Based Tactile Human-Robot Interaction Recognition
- Title(参考訳): 音声による触覚による人間とロボットのインタラクション認識
- Authors: Antonia Yepes, Marie Charbonneau,
- Abstract要約: 本研究では,ロボットの硬い殻に触れた時に発生する音によって触覚の相互作用を検出するために,ロボットの体にマイクロフォンを装着することを検討した。
Raspberry Pi 4と統合された2台のI2Sマイクロフォンは、音声信号を捉えるためにPollen Robotics Reachyロボットの胴体に配置された。
畳み込みニューラルネットワークは、336の事前処理されたサンプルのデータセットのタッチ分類のために訓練された。
このモデルでは、異なる音響的支配周波数を持つタッチタイプ間の高い分類精度を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study explores the use of microphones placed on a robot's body to detect tactile interactions via sounds produced when the hard shell of the robot is touched. This approach is proposed as an alternative to traditional methods using joint torque sensors or 6-axis force/torque sensors. Two Adafruit I2S MEMS microphones integrated with a Raspberry Pi 4 were positioned on the torso of a Pollen Robotics Reachy robot to capture audio signals from various touch types on the robot arms (tapping, knocking, rubbing, stroking, scratching, and pressing). A convolutional neural network was trained for touch classification on a dataset of 336 pre-processed samples (48 samples per touch type). The model shows high classification accuracy between touch types with distinct acoustic dominant frequencies.
- Abstract(参考訳): 本研究では,ロボットの硬い殻に触れた時に発生する音によって触覚の相互作用を検出するために,ロボットの体にマイクロフォンを装着することを検討した。
この手法は、関節トルクセンサや6軸力/トルクセンサを用いた従来の方法の代替として提案されている。
Raspberry Pi 4と統合された2台のAdafruit I2S MEMSマイクロフォンは、Pollen Robotics Reachyロボットの胴体に配置され、ロボットアームのさまざまなタッチタイプ(タップ、ノック、ラビング、ストローキング、スクラッチ、プレス)の音声信号をキャプチャする。
畳み込みニューラルネットワークは、336の事前処理されたサンプル(タッチタイプ毎48のサンプル)のデータセット上で、タッチ分類のために訓練された。
このモデルでは、異なる音響的支配周波数を持つタッチタイプ間の高い分類精度を示す。
関連論文リスト
- Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Body Gesture Recognition to Control a Social Robot [5.557794184787908]
本研究では,人間の身体を自然に利用してロボットと対話できるジェスチャー型言語を提案する。
ニューラルネットワークを用いた新しいジェスチャー検出モデルと、ネットワークをトレーニングするための身体ジェスチャーセットを実行する人間のカスタムデータセットを作成しました。
論文 参考訳(メタデータ) (2022-06-15T13:49:22Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - AuraSense: Robot Collision Avoidance by Full Surface Proximity Detection [3.9770080498150224]
AuraSenseは、ロボットアームの非死点近接検知を実現する最初のシステムである。
1組の圧電トランスデューサしか必要とせず、市販のロボットにも容易に適用できる。
論文 参考訳(メタデータ) (2021-08-10T18:37:54Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。