論文の概要: Near-Field Perception for Safety Enhancement of Autonomous Mobile Robots in Manufacturing Environments
- arxiv url: http://arxiv.org/abs/2512.13561v1
- Date: Mon, 15 Dec 2025 17:18:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.360026
- Title: Near-Field Perception for Safety Enhancement of Autonomous Mobile Robots in Manufacturing Environments
- Title(参考訳): 製造環境における自律移動ロボットの安全性向上のための近接場認識
- Authors: Li-Wei Shih, Ruo-Syuan Mei, Jesse Heidrich, Hui-Ping Wang, Joel Hooton, Joshua Solomon, Jorge Arinez, Guangze Li, Chenhui Shao,
- Abstract要約: 本稿では,自律移動ロボットのための3層近接場認識フレームワークを提案する。
最初のアプローチでは光の不連続検出を採用し、近距離領域にレーザーストライプを投射する。
第2のアプローチでは、光変位測定を用いて物体の高さを推定する。
第3のアプローチでは、組み込みAIハードウェア上のコンピュータビジョンに基づくオブジェクト検出モデルを使用してオブジェクトを分類する。
- 参考スコア(独自算出の注目度): 1.4627307351436138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Near-field perception is essential for the safe operation of autonomous mobile robots (AMRs) in manufacturing environments. Conventional ranging sensors such as light detection and ranging (LiDAR) and ultrasonic devices provide broad situational awareness but often fail to detect small objects near the robot base. To address this limitation, this paper presents a three-tier near-field perception framework. The first approach employs light-discontinuity detection, which projects a laser stripe across the near-field zone and identifies interruptions in the stripe to perform fast, binary cutoff sensing for obstacle presence. The second approach utilizes light-displacement measurement to estimate object height by analyzing the geometric displacement of a projected stripe in the camera image, which provides quantitative obstacle height information with minimal computational overhead. The third approach employs a computer vision-based object detection model on embedded AI hardware to classify objects, enabling semantic perception and context-aware safety decisions. All methods are implemented on a Raspberry Pi 5 system, achieving real-time performance at 25 or 50 frames per second. Experimental evaluation and comparative analysis demonstrate that the proposed hierarchy balances precision, computation, and cost, thereby providing a scalable perception solution for enabling safe operations of AMRs in manufacturing environments.
- Abstract(参考訳): 製造環境における自律移動ロボット(AMR)の安全な運用には,近接場認識が不可欠である。
光検出・測光(LiDAR)や超音波装置のような従来型の測光センサーは、広い状況認識を提供するが、ロボット基地付近の小さな物体を検出できないことが多い。
この制限に対処するため,本稿では3層近接場認識フレームワークを提案する。
第1のアプローチでは光不連続検出を採用し、近距離領域にレーザーストライプを投射し、ストライプ内の割り込みを特定し、障害物の存在を高速に二分切断検知する。
第2のアプローチでは、カメラ画像中の投影ストライプの幾何学的変位を分析して、光変位測定を用いて物体の高さを推定し、計算オーバーヘッドを最小限に抑えた定量的な障害物高さ情報を提供する。
第3のアプローチでは、組み込みAIハードウェア上でのコンピュータビジョンベースのオブジェクト検出モデルを使用して、オブジェクトを分類し、意味認識とコンテキスト認識の安全性決定を可能にする。
すべてのメソッドはRaspberry Pi 5システムで実装され、毎秒25または50フレームでリアルタイムのパフォーマンスを実現する。
実験による評価と比較分析により,提案した階層構造は精度,計算量,コストのバランスを保ち,製造環境におけるAMRの安全な操作を可能にするスケーラブルな認識ソリューションを提供することを示した。
関連論文リスト
- Efficient Surgical Robotic Instrument Pose Reconstruction in Real World Conditions Using Unified Feature Detection [21.460727996614704]
MISロボットは、長いキネマティックチェーンを持ち、カメラ内の自由度を部分的に可視化する。
本稿では,共有符号化による幾何学的プリミティブの検出を統一する新しいフレームワークを提案する。
このアーキテクチャは、1つの推論でキーポイントとエッジの両方を検出し、射影ラベル付き大規模合成データに基づいて訓練される。
論文 参考訳(メタデータ) (2025-10-03T22:03:28Z) - Sight Over Site: Perception-Aware Reinforcement Learning for Efficient Robotic Inspection [57.37596278863949]
本研究では,認識・認識の観点からの検査を再考する。
本稿では,目標視認性を主目的とするエンドツーエンド強化学習フレームワークを提案する。
提案手法は,既存の古典的および学習的ナビゲーション手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-09-22T15:14:02Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Robustness-Aware 3D Object Detection in Autonomous Driving: A Review and Outlook [19.539295469044813]
本研究は,現実シナリオ下での知覚システム評価において,精度と遅延とともに頑健性の重要性を強調した。
我々の研究は、カメラのみ、LiDARのみ、マルチモーダルな3Dオブジェクト検出アルゴリズムを広範囲に調査し、精度、レイテンシ、堅牢性の間のトレードオフを徹底的に評価する。
これらのうち、多モード3D検出手法は優れた堅牢性を示し、新しい分類法を導入し、文献を改良して明瞭性を高める。
論文 参考訳(メタデータ) (2024-01-12T12:35:45Z) - Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。