論文の概要: WaveVerif: Acoustic Side-Channel based Verification of Robotic Workflows
- arxiv url: http://arxiv.org/abs/2510.25960v1
- Date: Wed, 29 Oct 2025 20:58:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.571091
- Title: WaveVerif: Acoustic Side-Channel based Verification of Robotic Workflows
- Title(参考訳): WaveVerif:ロボットワークフローのアコースティックサイドチャネルに基づく検証
- Authors: Zeynep Yasemin Erdogan, Shishir Nagaraja, Chuadhry Mujeeb Ahmed, Ryan Shah,
- Abstract要約: 機械学習に基づくワークフロー検証システムを開発し評価する。
システムは、リアルタイム動作が期待されるコマンドと一致しているかどうかを判断できる。
本研究は,音響信号が高感度ロボット環境におけるリアルタイム,低コスト,受動的検証をサポートすることを示す。
- 参考スコア(独自算出の注目度): 1.7446020608840058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a framework that uses acoustic side- channel analysis (ASCA) to monitor and verify whether a robot correctly executes its intended commands. We develop and evaluate a machine-learning-based workflow verification system that uses acoustic emissions generated by robotic movements. The system can determine whether real-time behavior is consistent with expected commands. The evaluation takes into account movement speed, direction, and microphone distance. The results show that individual robot movements can be validated with over 80% accuracy under baseline conditions using four different classifiers: Support Vector Machine (SVM), Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Convolutional Neural Network (CNN). Additionally, workflows such as pick-and-place and packing could be identified with similarly high confidence. Our findings demonstrate that acoustic signals can support real-time, low-cost, passive verification in sensitive robotic environments without requiring hardware modifications.
- Abstract(参考訳): 本稿では,ロボットが意図したコマンドを正しく実行しているかどうかを,音響サイドチャネル分析(ASCA)を用いて監視し,検証するフレームワークを提案する。
ロボットの動きから発生する音響放射を利用した機械学習に基づくワークフロー検証システムの開発と評価を行う。
システムは、リアルタイム動作が期待されるコマンドと一致しているかどうかを判断できる。
評価は移動速度、方向、マイク距離を考慮する。
その結果、SVM(Support Vector Machine)、DNN(Deep Neural Network)、RNN(Recurrent Neural Network)、CNN(Convolutional Neural Network)の4つの異なる分類器を用いて、ベースライン条件下で、個々のロボットの動きを80%以上の精度で検証できることが判明した。
さらに、ピック・アンド・プレイスやパッキングといったワークフローも、同様に高い信頼性で識別できる。
本研究は,音響信号がハードウェア変更を必要とせずに,ロボット環境におけるリアルタイム,低コスト,受動的検証を支援することを示す。
関連論文リスト
- Bridging Subjective and Objective QoE: Operator-Level Aggregation Using LLM-Based Comment Analysis and Network MOS Comparison [1.5817271400571666]
本稿では,ネットワーク操作者側品質評価(QoE)のための2層フレームワークを提案する。
目的としては、ITU-T P.1203参照実装を用いて平均世論スコア(MOS)に基づいて学習した機械学習モデルを開発する。
主観的側面では、ユーザコメントをライブストリームから処理し、パフォーマンス関連のフィードバックを抽出するセマンティックフィルタリングとスコアリングパイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-01T09:31:55Z) - Real-Time Multimodal Signal Processing for HRI in RoboCup: Understanding a Human Referee [1.7456666582626115]
本研究では、キーポイント抽出と分類によるジェスチャー認識のための2段階パイプラインと、効率的なwhi検出のための連続畳み込みニューラルネットワーク(CCNN)を実装した。
提案されたアプローチは、RoboCupのような競合する環境でのリアルタイムな人間とロボットのインタラクションを強化し、人間と協力できる自律システムの開発を前進させるためのツールを提供する。
論文 参考訳(メタデータ) (2024-11-26T11:39:43Z) - LPAC: Learnable Perception-Action-Communication Loops with Applications to Coverage Control [72.81786007015471]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation [0.0]
移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
論文 参考訳(メタデータ) (2021-09-17T00:49:31Z) - Online Detection of Vibration Anomalies Using Balanced Spiking Neural
Networks [2.9439848714137447]
スパイキングニューラルネットワークを用いた振動解析のためのニューロモルフィック手法を提案する。
振動データからシステム異常を検出することができるスパイクに基づくエンドツーエンドパイプラインを提案する。
提案手法は,2つの公開データセットに対して,最先端の性能や性能を向上することを示す。
論文 参考訳(メタデータ) (2021-06-01T18:00:02Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Multi-Tones' Phase Coding (MTPC) of Interaural Time Difference by
Spiking Neural Network [68.43026108936029]
雑音の多い実環境下での正確な音像定位のための純粋スパイクニューラルネットワーク(SNN)に基づく計算モデルを提案する。
このアルゴリズムを,マイクロホンアレイを用いたリアルタイムロボットシステムに実装する。
実験の結果, 平均誤差方位は13度であり, 音源定位に対する他の生物学的に妥当なニューロモルフィックアプローチの精度を上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-07T08:22:56Z) - Deep Speaker Embeddings for Far-Field Speaker Recognition on Short
Utterances [53.063441357826484]
深層話者埋め込みに基づく話者認識システムは,制御条件下での大幅な性能向上を実現している。
制御されていない雑音環境下での短い発話に対する話者検証は、最も困難で要求の高いタスクの1つである。
本稿では,a)環境騒音の有無による遠距離話者検証システムの品質向上,b)短時間発話におけるシステム品質劣化の低減という2つの目標を達成するためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-14T13:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。