論文の概要: Cyber-Physical Steganography in Robotic Motion Control
- arxiv url: http://arxiv.org/abs/2501.04541v1
- Date: Wed, 08 Jan 2025 14:44:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:56:17.337147
- Title: Cyber-Physical Steganography in Robotic Motion Control
- Title(参考訳): ロボット運動制御におけるサイバー物理ステレオグラフィ
- Authors: Ching-Chun Chang, Yijie Lin, Isao Echizen,
- Abstract要約: 本研究は,ロボット運動制御にステガノグラフィーパラダイムを導入することにより,実行可能なステガノグラフィー媒体の地平を広げることを目的とする。
ロボットの環境変化に対する固有の感度の観察に基づいて,ロボットエージェントの動作に影響を与える環境刺激としてメッセージを符号化し,その結果の運動軌跡からメッセージを復号する手法を提案する。
- 参考スコア(独自算出の注目度): 9.182884165239996
- License:
- Abstract: Steganography, the art of information hiding, has continually evolved across visual, auditory and linguistic domains, adapting to the ceaseless interplay between steganographic concealment and steganalytic revelation. This study seeks to extend the horizons of what constitutes a viable steganographic medium by introducing a steganographic paradigm in robotic motion control. Based on the observation of the robot's inherent sensitivity to changes in its environment, we propose a methodology to encode messages as environmental stimuli influencing the motions of the robotic agent and to decode messages from the resulting motion trajectory. The constraints of maximal robot integrity and minimal motion deviation are established as fundamental principles underlying secrecy. As a proof of concept, we conduct experiments in simulated environments across various manipulation tasks, incorporating robotic embodiments equipped with generalist multimodal policies.
- Abstract(参考訳): ステガノグラフィー(ステガノグラフィー、英: Steganography)は、ステガノグラフィーの隠蔽とステガノグラフィーの啓示の間の絶え間ない相互作用に適応し、視覚的、聴覚的、言語的領域にわたって継続的に進化してきた。
本研究は,ロボット運動制御にステガノグラフィーパラダイムを導入することにより,実行可能なステガノグラフィー媒体を構成するものの地平を広げることを目的とする。
ロボットの環境変化に対する固有の感度の観察に基づいて,ロボットエージェントの動作に影響を与える環境刺激としてメッセージを符号化し,その結果の運動軌跡からメッセージを復号する手法を提案する。
極大ロボットの完全性と最小運動偏差の制約は、機密性の根底にある基本原理として確立されている。
概念実証として,汎用的なマルチモーダルポリシを備えたロボットエボデーメントを取り入れた,様々な操作タスクのシミュレーション環境で実験を行う。
関連論文リスト
- Beyond Sight: Finetuning Generalist Robot Policies with Heterogeneous Sensors via Language Grounding [85.63710017456792]
FuSeは、不均一なセンサのモダリティに対する微調整型ビズモータ一般政策を可能にする新しいアプローチである。
FuSeは視覚,触覚,音などのモーダル性に対して共同で推論を必要とする挑戦的なタスクを実行できることを示す。
実世界での実験では、FuSeisはすべての基準ラインと比較して成功率を20%以上引き上げることができた。
論文 参考訳(メタデータ) (2025-01-08T18:57:33Z) - Ensuring Force Safety in Vision-Guided Robotic Manipulation via Implicit Tactile Calibration [18.183151257773886]
本稿ではSafeDiffと呼ばれる新しい状態拡散フレームワークを紹介する。
これにより、現在のロボットの状態と視覚的コンテキスト観察から予測状態列を生成する。
リアルタイムの触覚フィードバックを組み込んでシーケンスを洗練させる。
実験では, 視覚触覚モデルにより, ドア開口部の有害な力の危険性が著しく軽減された。
論文 参考訳(メタデータ) (2024-12-13T18:45:26Z) - Steganography in Game Actions [8.095373104009868]
本研究は, 実効性のあるステガノグラフィー媒体であると考えられるものの境界を拡大することを目的としている。
本研究では,環境と対話する複数のエージェントのエピソードを通して,隠れた情報を伝達するステガノグラフィーのパラダイムを探求する。
概念実証として,目的に向かって操る行為において,サブリミナル通信を隠蔽するナビゲーションタスクであるラビリンスゲームを通じて,アクションステガノグラフィーを例示する。
論文 参考訳(メタデータ) (2024-12-11T12:02:36Z) - Moto: Latent Motion Token as the Bridging Language for Robot Manipulation [66.18557528695924]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - EMOTION: Expressive Motion Sequence Generation for Humanoid Robots with In-Context Learning [10.266351600604612]
本稿では,ヒューマノイドロボットにおける表現型動き列を生成するためのEMOTIONというフレームワークを提案する。
本研究では,EMOTIONが生成する動作の自然性と理解性を比較したオンラインユーザ研究を行い,その人間フィードバックバージョンであるEMOTION++について述べる。
論文 参考訳(メタデータ) (2024-10-30T17:22:45Z) - Grounding Robot Policies with Visuomotor Language Guidance [15.774237279917594]
ロボットポリシーを現在の状況に基盤付けるためのエージェントベースのフレームワークを提案する。
提案するフレームワークは、特定の役割のために設計された会話エージェントのセットで構成されている。
弊社のアプローチは、操作ポリシーを効果的にガイドし、成功率を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2024-10-09T02:00:37Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - RoboCodeX: Multimodal Code Generation for Robotic Behavior Synthesis [102.1876259853457]
汎用ロボット行動合成のための木構造多モードコード生成フレームワークRoboCodeXを提案する。
RoboCodeXは、高レベルの人間の命令を複数のオブジェクト中心の操作ユニットに分解する。
概念的および知覚的理解を制御コマンドにマッピングする能力をさらに強化するため、事前学習のための特別なマルチモーダル推論データセットを収集し、教師付き微調整のための反復的自己更新手法を導入する。
論文 参考訳(メタデータ) (2024-02-25T15:31:43Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。