論文の概要: Set Phasers to Stun: Beaming Power and Control to Mobile Robots with Laser Light
- arxiv url: http://arxiv.org/abs/2504.17865v1
- Date: Thu, 24 Apr 2025 18:08:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.544522
- Title: Set Phasers to Stun: Beaming Power and Control to Mobile Robots with Laser Light
- Title(参考訳): レーザー光による移動ロボットのビームパワーと制御
- Authors: Charles J. Carver, Hadleigh Schwartz, Toma Itagaki, Zachary Englhardt, Kechen Liu, Megan Graciela Nauli Manik, Chun-Cheng Chang, Vikram Iyer, Brian Plancher, Xia Zhou,
- Abstract要約: 本稿では、狭ビームレーザー光を移動ロボットに誘導し、同時に無線による電力供給と通信を行うシステムであるPhaserを提案する。
高出力ビームステアリングによる立体視に基づく3次元ロボットトラッキングの融合を実現するための半自動キャリブレーション手法を設計する。
Phaserは110 mW/cm$2$以上の光パワー密度とエラーのないデータをマルチメートル範囲の移動ロボットに供給する。
- 参考スコア(独自算出の注目度): 4.790050590687599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Phaser, a flexible system that directs narrow-beam laser light to moving robots for concurrent wireless power delivery and communication. We design a semi-automatic calibration procedure to enable fusion of stereo-vision-based 3D robot tracking with high-power beam steering, and a low-power optical communication scheme that reuses the laser light as a data channel. We fabricate a Phaser prototype using off-the-shelf hardware and evaluate its performance with battery-free autonomous robots. Phaser delivers optical power densities of over 110 mW/cm$^2$ and error-free data to mobile robots at multi-meter ranges, with on-board decoding drawing 0.3 mA (97\% less current than Bluetooth Low Energy). We demonstrate Phaser fully powering gram-scale battery-free robots to nearly 2x higher speeds than prior work while simultaneously controlling them to navigate around obstacles and along paths. Code, an open-source design guide, and a demonstration video of Phaser is available at https://mobilex.cs.columbia.edu/phaser.
- Abstract(参考訳): 本稿では、狭ビームレーザー光を移動ロボットに誘導するフレキシブルなシステムであるPhaserについて述べる。
我々は,高出力ビームステアリングによる立体視に基づく3次元ロボットトラッキングの融合を可能にする半自動キャリブレーション手法と,レーザ光をデータチャネルとして再利用する低消費電力光通信方式を設計した。
市販のハードウェアを用いてプロトタイプを試作し,バッテリーレス自律ロボットによる性能評価を行った。
Phaserは、110 mW/cm$^2$以上の光パワー密度とエラーのないデータをマルチメートル範囲の移動ロボットに提供し、オンボードデコーディングは0.3 mA(Bluetooth Low Energyより97 %低い電流)である。
本研究では,従来の作業の約2倍の速さで,また障害物や経路を走行する動作を制御しながら,グラムスケールのバッテリーフリーロボットをフルパワーで動作させることを実証する。
原文(投稿日:2012/09/17)へのリンク オープンソースのデザインガイドであるCodeと、フェーズのデモビデオがhttps://mobilex.cs.columbia.edu/phaser.comで公開されている。
関連論文リスト
- Taccel: Scaling Up Vision-based Tactile Robotics via High-performance GPU Simulation [50.34179054785646]
ロボット,触覚センサ,物体を精度と前例のない速度でモデル化するために,IPCとABDを統合した高性能なシミュレーションプラットフォームであるTaccelを提案する。
Taccelは正確な物理シミュレーションとリアルな触覚信号を提供し、ユーザフレンドリーなAPIを通じて柔軟なロボットセンサー構成をサポートする。
これらの能力は、触覚ロボットの研究と開発を拡大するための強力なツールとして、Taccelを位置づけている。
論文 参考訳(メタデータ) (2025-04-17T12:57:11Z) - FAST: Efficient Action Tokenization for Vision-Language-Action Models [98.15494168962563]
離散コサイン変換に基づくロボット動作のための圧縮に基づく新しいトークン化手法を提案する。
FASTをベースとしたFAST+は,100万個のリアルロボットアクショントラジェクトリに基づいて訓練されたユニバーサルロボットアクショントークンである。
論文 参考訳(メタデータ) (2025-01-16T18:57:04Z) - Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - LLaRA: Supercharging Robot Learning Data for Vision-Language Policy [56.505551117094534]
我々はLLaRA: Large Language and Robotics Assistantを紹介した。
まず、既存の行動クローニングデータセットからロボットのための会話スタイルの指導データを生成する自動パイプラインを提案する。
このようなデータセットを限定的に微調整したVLMは、ロボット制御において有意義な行動決定を導出できることを示す。
論文 参考訳(メタデータ) (2024-06-28T17:59:12Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Prompt a Robot to Walk with Large Language Models [18.214609570837403]
巨大な言語モデル(LLM)は、大規模なインターネットスケールのデータで事前訓練されている。
物理的環境から収集した数発のプロンプトを使用する新しいパラダイムを導入する。
様々なロボットと環境をまたいだ実験により、我々の手法がロボットに歩行を効果的に促すことが検証された。
論文 参考訳(メタデータ) (2023-09-18T17:50:17Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - MobileCharger: an Autonomous Mobile Robot with Inverted Delta Actuator
for Robust and Safe Robot Charging [3.7003629688390896]
MobileChargerは、2つの移動ロボット間の安全で堅牢なエネルギー伝達のための逆デルタアクチュエータを備えた、新しいモバイル充電ロボットである。
RGB-Dカメラを用いたコンピュータビジョンシステムは、畳み込みニューラルネットワーク(CNN)を用いてターゲット移動ロボットの電極を検出することができる
組込み高忠実触覚センサを適用して、充電器機構上の電極とメインロボット上の電極とのずれを推定する。
論文 参考訳(メタデータ) (2021-07-22T11:30:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。