論文の概要: Fingerprinting Robot Movements via Acoustic Side Channel
- arxiv url: http://arxiv.org/abs/2209.10240v1
- Date: Wed, 21 Sep 2022 10:12:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:38:43.464142
- Title: Fingerprinting Robot Movements via Acoustic Side Channel
- Title(参考訳): アコースティックサイドチャネルによる指先ロボットの動き
- Authors: Ryan Shah, Mujeeb Ahmed, Shishir Nagaraja
- Abstract要約: 動作中のロボットを録音するスマートフォンマイクロフォンを用いて,音の音響特性を利用してロボットの動きを識別するアコースティックサイドチャネルアタックを提案する。
個々のロボットの動きは75%の精度で指紋化でき、距離や速度といったより細かい動きのメタデータでわずかに減少することがわかった。
外科的設定など一部の環境では、教育・教育目的や遠隔遠隔医療など、VoIP経由で音声を録音・送信することができる。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present an acoustic side channel attack which makes use of
smartphone microphones recording a robot in operation to exploit acoustic
properties of the sound to fingerprint a robot's movements. In this work we
consider the possibility of an insider adversary who is within physical
proximity of a robotic system (such as a technician or robot operator),
equipped with only their smartphone microphone. Through the acoustic
side-channel, we demonstrate that it is indeed possible to fingerprint not only
individual robot movements within 3D space, but also patterns of movements
which could lead to inferring the purpose of the movements (i.e. surgical
procedures which a surgical robot is undertaking) and hence, resulting in
potential privacy violations. Upon evaluation, we find that individual robot
movements can be fingerprinted with around 75% accuracy, decreasing slightly
with more fine-grained movement meta-data such as distance and speed.
Furthermore, workflows could be reconstructed with around 62% accuracy as a
whole, with more complex movements such as pick-and-place or packing
reconstructed with near perfect accuracy. As well as this, in some environments
such as surgical settings, audio may be recorded and transmitted over VoIP,
such as for education/teaching purposes or in remote telemedicine. The question
here is, can the same attack be successful even when VoIP communication is
employed, and how does packet loss impact the captured audio and the success of
the attack? Using the same characteristics of acoustic sound for plain audio
captured by the smartphone, the attack was 90% accurate in fingerprinting VoIP
samples on average, 15% higher than the baseline without the VoIP codec
employed. This opens up new research questions regarding anonymous
communications to protect robotic systems from acoustic side channel attacks
via VoIP communication networks.
- Abstract(参考訳): 本稿では,音声の音響特性を利用してロボットの動きをフィンガープリントするために,動作中のロボットを録音するスマートフォンマイクを用いた音響サイドチャネル攻撃を提案する。
本研究では,スマートフォンマイクのみを装備したロボットシステム(技術者やロボットオペレーターなど)の物理的近接状態にあるインサイダー敵の可能性を検討する。
3d空間内の個々のロボットの動きだけでなく、その動きの目的(つまり手術ロボットが行う手術手順)を推測しうる動きのパターンを指紋化することが可能であり、それによって潜在的なプライバシー侵害を生じさせる可能性があることを、音響サイドチャネルを通じて実証する。
評価の結果,個々のロボットの動きを約75%の精度で指紋化することができ,距離や速度などのよりきめ細かい移動メタデータでわずかに減少することがわかった。
さらに、ワークフローは全体として約62%の精度で再構築でき、ピック・アンド・プレイスやパッキングといったより複雑な動きをほぼ完璧に再現できる。
また、外科的設定など一部の環境では、教育・教育目的や遠隔遠隔医療など、VoIP経由で音声を録音・送信することができる。
ここでの問題は、VoIP通信が採用されても、同じ攻撃が成功するか、パケットロスがキャプチャされたオーディオと攻撃の成功にどのように影響するか、ということだ。
スマートフォンが捉えた音声の音響特性と同じで,VoIPコーデックを使わずに,VoIPサンプルを平均で90%,ベースラインより15%高い精度で指紋認証を行った。
これにより、匿名通信に関する新たな研究課題が開かれ、VoIP通信ネットワークを介して音響サイドチャネル攻撃からロボットシステムを保護する。
関連論文リスト
- ManiWAV: Learning Robot Manipulation from In-the-Wild Audio-Visual Data [28.36623343236893]
我々は,同期音声と視覚的フィードバックを伴って人体でのデモを収集する「アー・イン・ハンド」データ収集装置であるManiWAVを紹介する。
また,本システムでは,多種多様な人間の実演から学習することで,未知の環境に一般化できることを示す。
論文 参考訳(メタデータ) (2024-06-27T18:06:38Z) - Hearing Touch: Audio-Visual Pretraining for Contact-Rich Manipulation [13.026061233933435]
現在のパラダイムは視覚表現のための大規模な事前訓練のみを実行する。
触覚などの他のモダリティを事前訓練するために、インターネットスケールのデータがどのように使われるのかは不明だ。
本稿では,コンタクトマイクを代替触覚センサとして利用することで,このギャップに対処する。
論文 参考訳(メタデータ) (2024-05-14T13:16:46Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - The Un-Kidnappable Robot: Acoustic Localization of Sneaking People [25.494191141691616]
室内で動く人々の360度RGBデータと組み合わせて、高品質な4チャンネルオーディオのロボットデータセットを収集する。
音声のみを使用して、近くに動く人物と位置を予測できるモデルを訓練する。
本手法をロボットに実装することにより,受動的音声センサのみを用いて,一人の人物が静かに動くことを追跡できる。
論文 参考訳(メタデータ) (2023-10-05T17:59:55Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - e-Inu: Simulating A Quadruped Robot With Emotional Sentience [4.15623340386296]
本稿では,人間の感情を検知・理解できるロボットの理解と仮想シミュレーションについて論じる。
我々は、強化学習とソフトウェア工学の概念を組み合わせて、感情を理解できる四足歩行ロボットをシミュレートする。
ビデオ感情検出システムは、99.66%の精度で、ほぼ芸術の状況に匹敵する結果を生み出した。
論文 参考訳(メタデータ) (2023-01-03T06:28:45Z) - Reconstructing Robot Operations via Radio-Frequency Side-Channel [1.0742675209112622]
近年、サイバードメインからロボット自体を積極的に狙う様々な攻撃が提案されている。
本研究では,インサイダーの相手が,無線周波数側チャネルを介してロボットの動きや操作用ウェアハウジングを正確に検出できるかどうかを検討する。
論文 参考訳(メタデータ) (2022-09-21T08:14:51Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。