論文の概要: Crane Lowering Guidance Using a Attachable Camera Module for Driver Vision Support
- arxiv url: http://arxiv.org/abs/2601.11026v2
- Date: Wed, 11 Feb 2026 14:10:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.807042
- Title: Crane Lowering Guidance Using a Attachable Camera Module for Driver Vision Support
- Title(参考訳): ドライバービジョン支援のためのアタッチブルカメラモジュールを用いたクレーン下降誘導
- Authors: HyoJae Kang, SunWoo Ahn, InGyu Choi, GeonYeong Go, KunWoo Son, Min-Sung Kang,
- Abstract要約: 本研究はクレーン運転の低下段階に着目した。
このフェーズでは、一定の課題が存在し、負荷は着陸地点のオペレーターの視界を妨害する。
提案システムは,吸込カップを介して直接荷重に取付けるように設計されたカメラモジュールを内蔵する。
- 参考スコア(独自算出の注目度): 0.030786914102688592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cranes have long been essential equipment for lifting and placing heavy loads in construction projects. This study focuses on the lowering phase of crane operation, the stage in which the load is moved to the desired location. During this phase, a constant challenge exists: the load obstructs the operator's view of the landing point. As a result, operators traditionally have to rely on verbal or gestural instructions from ground personnel, which significantly impacts site safety. To alleviate this constraint, the proposed system incorporates a attachable camera module designed to be attached directly to the load via a suction cup. This module houses a single-board computer, battery, and compact camera. After installation, it streams and processes images of the ground directly below the load in real time to generate installation guidance. Simultaneously, this guidance is transmitted to and monitored by a host computer. Preliminary experiments were conducted by attaching this module to a test object, confirming the feasibility of real-time image acquisition and transmission. This approach has the potential to significantly improve safety on construction sites by providing crane operators with an instant visual reference of hidden landing zones.
- Abstract(参考訳): クレーンは長い間、建設計画に重荷を積むのに欠かせない装備であった。
本研究は, クレーン動作の低下段階, 荷重を所望の場所に移動させる段階に着目した。
このフェーズでは、一定の課題が存在し、負荷は着陸地点のオペレーターの視界を妨害する。
結果として、オペレーターは伝統的に、地上の職員からの口頭または口頭での指示に頼る必要があり、サイトの安全性に大きな影響を及ぼす。
この制約を緩和するため,提案システムでは,吸込カップを介して直接荷重に取付けるように設計されたカメラモジュールが組み込まれている。
このモジュールにはシングルボードコンピュータ、バッテリー、コンパクトカメラが内蔵されている。
インストール後、リアルタイムに地面の画像をストリームして処理し、インストールガイダンスを生成する。
同時に、このガイダンスはホストコンピュータに送信され、監視される。
このモジュールをテストオブジェクトにアタッチし,リアルタイム画像取得と送信の可能性を確認することで,予備実験を行った。
この手法は、クレーンオペレーターに隠れた着陸ゾーンの視覚的参照を提供することで、建設現場の安全性を著しく向上させる可能性がある。
関連論文リスト
- Distributed State Estimation for Vision-Based Cooperative Slung Load Transportation in GPS-Denied Environments [2.3747069320845067]
本稿では,ビジョンベースマルチリフト運用のための分散分散分散ペイロード状態推定フレームワークを提案する。
搭載されている単眼カメラを用いて、各UAVはペイロードのフィデューシャルマーカーを検出し、相対的なポーズを推定する。
このペイロード状態推定は、クローズドループ軌道追跡制御に使用される。
論文 参考訳(メタデータ) (2026-03-04T19:59:11Z) - Autonomous Block Assembly for Boom Cranes with Passive Joint Dynamics: Integrated Vision MPC Control [3.9719362453207943]
本稿では,プレハブブロックの組立を行う調音式ブームクレーンの自律制御フレームワークを提案する。
対処すべき重要な課題は、振り子のような揺れを引き起こす受動的関節力学の下での正確な配置制御である。
我々の統合されたアプローチは、ビルディングブロックのリアルタイムな視覚に基づくポーズ推定、衝突を意識したB-スプライン経路計画、非線形モデル予測制御を組み合わせたものである。
論文 参考訳(メタデータ) (2026-02-17T21:14:11Z) - HUNT: High-Speed UAV Navigation and Tracking in Unstructured Environments via Instantaneous Relative Frames [50.83645076723809]
HUNT (High-speed UAV Navigation and Tracking) は、1つの相対的な定式化の中で統合、取得、追跡を行うリアルタイムフレームワークである。
密林、コンテナ化合物、および車両やマネキンによる捜索救助活動の試行は、グローバルな方法が失敗した場合の堅牢な自律性を示している。
論文 参考訳(メタデータ) (2025-09-23T18:07:10Z) - Are Large Pre-trained Vision Language Models Effective Construction Safety Inspectors? [0.0]
建設安全検査は通常、人間の検査官が現場で安全上の懸念を識別する。
強力なビジョン言語モデル(VLM)の台頭に伴い、研究者は、現場画像から安全規則違反を検出するなどのタスクに使用することを模索している。
論文 参考訳(メタデータ) (2025-08-14T18:23:09Z) - Bird's-eye view safety monitoring for the construction top under the tower crane [3.275477941202418]
鳥の目から見たタワークレーンを持ち上げるためのAIによる完全自動安全監視システムを提案する。
このシステムは、カメラとLiDARから取得した情報を統合することで、人間とMiCのローカライズのための3Dデータ融合を実現した。
論文 参考訳(メタデータ) (2025-06-22T12:52:20Z) - Construction Site Scaffolding Completeness Detection Based on Mask R-CNN and Hough Transform [2.7309692684728617]
本稿では,コンピュータビジョンを用いた足場とその横断ブラス検出のための深層学習に基づくアプローチを提案する。
注釈付きラベル付き足場画像データセットを使用して、畳み込みニューラルネットワーク(CNN)モデルをトレーニングする。
論文 参考訳(メタデータ) (2025-03-18T20:27:22Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。