論文の概要: OpenTie: Open-vocabulary Sequential Rebar Tying System
- arxiv url: http://arxiv.org/abs/2509.00064v1
- Date: Tue, 26 Aug 2025 06:25:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.042883
- Title: OpenTie: Open-vocabulary Sequential Rebar Tying System
- Title(参考訳): OpenTie: Open-vocabulary Sequential Rebar Tying System
- Authors: Mingze Liu, Sai Fan, Haozhen Li, Haobo Liang, Yixing Yuan, Yanke Wang,
- Abstract要約: 我々は,RGB-to-point-cloud生成とオープン語彙検出を利用した3Dトレーニング不要なリバータイリングフレームワークOpenTieを提案する。
我々は,ロボットアームと双眼カメラを用いてOpenTieを実装し,提案した後処理手順によってフィルタされた画像にプロンプトベースの物体検出手法を適用することにより,高精度を実現する。
システムは水平および垂直のリバー・タイリング作業に対して柔軟であり、実世界のリバー・セッティングの実験により、実際にシステムの有効性が検証される。
- 参考スコア(独自算出の注目度): 2.1349411461351724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic practices on the construction site emerge as an attention-attracting manner owing to their capability of tackle complex challenges, especially in the rebar-involved scenarios. Most of existing products and research are mainly focused on flat rebar setting with model training demands. To fulfill this gap, we propose OpenTie, a 3D training-free rebar tying framework utilizing a RGB-to-point-cloud generation and an open-vocabulary detection. We implements the OpenTie via a robotic arm with a binocular camera and guarantees a high accuracy by applying the prompt-based object detection method on the image filtered by our propose post-processing procedure based a image to point cloud generation framework. The system is flexible for horizontal and vertical rebar tying tasks and the experiments on the real-world rebar setting verifies that the effectiveness of the system in practice.
- Abstract(参考訳): 建設現場でのロボットの実践は、特に残忍なシナリオにおいて、複雑な課題に取り組む能力のため、注意を引く方法として現れます。
既存の製品や研究のほとんどは、モデルトレーニングの要求を伴うフラットなリバー設定に重点を置いている。
このギャップを埋めるために,RGB-to-point-cloud生成とオープン語彙検出を利用した3Dトレーニング不要なリバータイリングフレームワークであるOpenTieを提案する。
両眼カメラを用いたロボットアームを用いてOpenTieを実装し,提案手法によりフィルタされた画像にプロンプトに基づく物体検出手法を適用し,高精度な画像認識を実現する。
システムは水平および垂直のリバー・タイリング作業に対して柔軟であり、実世界のリバー・セッティングの実験により、実際にシステムの有効性が検証される。
関連論文リスト
- DISORF: A Distributed Online 3D Reconstruction Framework for Mobile Robots [4.683651138674254]
DISORFは、リソースに制約された移動ロボットとエッジデバイスによってキャプチャされたシーンのオンライン3D再構成と視覚化を可能にするフレームワークである。
デバイス上のSLAMシステムを利用してポーズを生成し、それをリモートサーバに送信し、実行時に高品質な3D再構成と可視化を行う。
本稿では,オンライン学習におけるこの課題に対処する,シフト指数型フレームサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T02:19:40Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。