論文の概要: Visible Light Communication using Led-Based AR Markers for Robot Localization
- arxiv url: http://arxiv.org/abs/2601.06527v1
- Date: Sat, 10 Jan 2026 11:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.722689
- Title: Visible Light Communication using Led-Based AR Markers for Robot Localization
- Title(参考訳): ロボットローカライゼーションのためのLedベースARマーカを用いた可視光通信
- Authors: Wataru Uemura, Shogo Kawasaki,
- Abstract要約: 照明の形でArUcoマーカーを実装する方法を提案する。
提案手法では、マーカーの格子パターンに応じてLEDを配置し、対応する黒または白のセルに基づいて各LEDの点滅周波数を決定する。
その結果、照明は人間の目に対して均一に明るく見え、カメラは点滅周波数の変動を捉えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A method of information transmission using visual markers has been widely studied. In this approach, information or identifiers (IDs) are encoded in the black-and-white pattern of each marker. By analyzing the geometric properties of the marker frame - such as its size, distortion, and coordinates - the relative position and orientation between the camera and the marker can be estimated. Furthermore, by associating the positional information of each marker with its corresponding ID, the position of the camera that takes the image picture can be calculated. In the field of mobile robotics, such markers are commonly utilized for robot localization. As mobile robots become more widely used in everyday environments, such visual markers are expected to be utilized across various contexts. In environments where robots collaborate with humans - such as in cell-based manufacturing systems in factories or in domestic settings with partner robots - it is desirable for such markers to be designed in a manner that appears natural and unobtrusive to humans. In this paper, we propose a method for implementing an ArUco marker in the form of illumination. In the proposed method, LEDs are arranged in accordance with the grid pattern of the marker, and the blinking frequency of each LED is determined based on the corresponding black or white cell. As a result, the illumination appears uniformly bright to the human eye, while the camera can capture variations in the blinking frequency. From these differences, the black-and-white pattern can be reconstructed, enabling the identification of the marker's tag information. We develop a prototype system, and conduct experiments which are conducted to evaluate its performance in terms of recognition accuracy under varying distances and viewing angles with respect to the ArUco marker.
- Abstract(参考訳): 視覚マーカーを用いた情報伝達法が広く研究されている。
このアプローチでは、情報または識別子(ID)は各マーカーの白黒パターンに符号化される。
マーカーフレームの幾何学的特性(サイズ、歪み、座標など)を解析することにより、カメラとマーカーとの相対的な位置と向きを推定することができる。
さらに、各マーカーの位置情報を対応するIDに関連付けることにより、画像を取得するカメラの位置を算出することができる。
移動ロボット工学の分野では、そのようなマーカーはロボットのローカライゼーションに一般的に利用される。
移動ロボットが日常環境においてより広く使われるようになるにつれて、このような視覚的マーカーは様々な状況で利用されることが期待されている。
工場における細胞ベースの製造システムや、パートナーロボットとの国内環境など、ロボットが人間と協力する環境では、そのようなマーカーを人間にとって自然で邪魔にならない方法で設計することが望ましい。
本稿では,照明の形でArUcoマーカーを実装する手法を提案する。
提案手法では、マーカーの格子パターンに応じてLEDを配置し、対応する黒または白のセルに基づいて各LEDの点滅周波数を決定する。
その結果、照明は人間の目に対して均一に明るく見え、カメラは点滅周波数の変動を捉えることができる。
これらの違いから、白黒パターンを再構成することができ、マーカーのタグ情報を識別することができる。
試作システムを開発し、ArUcoマーカーに対して異なる距離と視角の認識精度でその性能を評価する実験を行った。
関連論文リスト
- Robotic Grasping and Placement Controlled by EEG-Based Hybrid Visual and Motor Imagery [64.82869118243723]
本稿では,脳波に基づく視覚・運動画像(VI/MI)とロボット制御を統合し,リアルタイム・意図駆動型把握・配置を実現するフレームワークを提案する。
このシステムは、BCI駆動のロボット工学の約束に感銘を受けて、オフラインで事前訓練されたデコーダをゼロショットで展開することによって、ニューラルネットワークを物理的制御でブリッジする。
論文 参考訳(メタデータ) (2026-03-03T17:41:42Z) - About an Automating Annotation Method for Robot Markers [0.0]
本稿では,ArUcoマーカー画像を用いたディープラーニングモデルの自動アノテーション手法を提案する。
自動アノテーション付きデータセットを用いてYOLOベースのモデルをトレーニングし、その性能を様々な条件下で評価する。
論文 参考訳(メタデータ) (2026-01-30T13:44:56Z) - Multi-modal Multi-platform Person Re-Identification: Benchmark and Method [58.59888754340054]
MP-ReIDは、マルチモダリティとマルチプラットフォームReIDに特化した新しいデータセットである。
このベンチマークは、RGB、赤外線、サーマルイメージングなど、さまざまなモードで1,930のIDからデータをコンパイルする。
クロスモダリティとクロスプラットフォームシナリオに適した,特定設計のプロンプトを備えたフレームワークであるUni-Prompt ReIDを紹介する。
論文 参考訳(メタデータ) (2025-03-21T12:27:49Z) - Unveiling the Potential of iMarkers: Invisible Fiducial Markers for Advanced Robotics [0.0]
フィデューシャルマーカーは、ナビゲーション、オブジェクト認識、シーン理解を促進する様々なロボティクスタスクで広く使われている。
本稿では,特殊センサーを搭載したロボットでのみ検出可能な「iMarkers」のイノベーティブで邪魔にならないフィデューシャルマーカーを提案する。
論文 参考訳(メタデータ) (2025-01-26T12:34:48Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - Active Visual Localization for Multi-Agent Collaboration: A Data-Driven Approach [47.373245682678515]
本研究は、視点変化の課題を克服するために、アクティブな視覚的ローカライゼーションをどのように利用できるかを検討する。
具体的には、与えられた場所における最適な視点を選択する問題に焦点をあてる。
その結果,既存の手法と比較して,データ駆動方式の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T08:18:30Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。