論文の概要: An Industrial Dataset for Scene Acquisitions and Functional Schematics Alignment
- arxiv url: http://arxiv.org/abs/2602.15584v1
- Date: Tue, 17 Feb 2026 13:55:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.081079
- Title: An Industrial Dataset for Scene Acquisitions and Functional Schematics Alignment
- Title(参考訳): シーン獲得のための産業データセットと機能的スキームアライメント
- Authors: Flavien Armangeon, Thibaud Ehret, Enric Meinhardt-Llopis, Rafael Grompone von Gioi, Guillaume Thibault, Marc Petit, Gabriele Facciolo,
- Abstract要約: 本稿では、さらなる研究を支援する包括的データセットであるIRIS-v2を紹介する。
画像、点雲、2Dアノテートボックス、セグメンテーションマスク、CADモデル、3Dパイプルーティング情報、P&ID(Piping and Instrumentation Diagram)が含まれている。
このアライメントは、セグメント化とグラフマッチングを組み合わせることで、このタスクに必要な時間を短縮することを目的として、実践的なケーススタディで実験される。
- 参考スコア(独自算出の注目度): 17.726613700122503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aligning functional schematics with 2D and 3D scene acquisitions is crucial for building digital twins, especially for old industrial facilities that lack native digital models. Current manual alignment using images and LiDAR data does not scale due to tediousness and complexity of industrial sites. Inconsistencies between schematics and reality, and the scarcity of public industrial datasets, make the problem both challenging and underexplored. This paper introduces IRIS-v2, a comprehensive dataset to support further research. It includes images, point clouds, 2D annotated boxes and segmentation masks, a CAD model, 3D pipe routing information, and the P&ID (Piping and Instrumentation Diagram). The alignment is experimented on a practical case study, aiming at reducing the time required for this task by combining segmentation and graph matching.
- Abstract(参考訳): 2Dおよび3Dシーンの獲得による機能的スキーマの調整は、特にネイティブデジタルモデルに欠ける古い産業施設において、デジタルツインの構築に不可欠である。
画像とLiDARデータを用いた現在の手動アライメントは、産業現場の退屈さと複雑さのためにスケールしない。
スキーマと現実の矛盾、および公共の産業データセットの不足は、この問題を困難と過小評価の両方にしている。
本稿では、さらなる研究を支援する包括的データセットであるIRIS-v2を紹介する。
画像、点雲、2Dアノテートボックス、セグメンテーションマスク、CADモデル、3Dパイプルーティング情報、P&ID(Piping and Instrumentation Diagram)が含まれている。
このアライメントは、セグメント化とグラフマッチングを組み合わせることで、このタスクに必要な時間を短縮することを目的として、実践的なケーススタディで実験される。
関連論文リスト
- Towards Scalable Spatial Intelligence via 2D-to-3D Data Lifting [64.64738535860351]
単一ビュー画像を包括的・スケール的・外観リアルな3D表現に変換するスケーラブルなパイプラインを提案する。
本手法は,画像の膨大な保存と空間的シーン理解への需要の増大とのギャップを埋めるものである。
画像から精度の高い3Dデータを自動的に生成することにより,データ収集コストを大幅に削減し,空間知性を向上するための新たな道を開く。
論文 参考訳(メタデータ) (2025-07-24T14:53:26Z) - GEAL: Generalizable 3D Affordance Learning with Cross-Modal Consistency [50.11520458252128]
既存の3Dアベイランス学習手法は、注釈付きデータに制限があるため、一般化と堅牢性に苦慮している。
本稿では,大規模事前学習型2Dモデルを活用することで,3次元アベイランス学習の一般化と堅牢性を高めるための新しいフレームワークであるGEALを提案する。
GEALは、既存のメソッドと、新しいオブジェクトカテゴリ、および破損したデータにおいて、一貫して優れています。
論文 参考訳(メタデータ) (2024-12-12T17:59:03Z) - Open-Vocabulary High-Resolution 3D (OVHR3D) Data Segmentation and Annotation Framework [1.1280113914145702]
本研究の目的は,3次元セグメンテーションタスクのための包括的で効率的なフレームワークの設計と開発である。
このフレームワークはGrounding DINOとSegment Any Modelを統合し、3Dメッシュによる2D画像レンダリングの強化によって強化される。
論文 参考訳(メタデータ) (2024-12-09T07:39:39Z) - Implicit-Zoo: A Large-Scale Dataset of Neural Implicit Functions for 2D Images and 3D Scenes [65.22070581594426]
Implicit-Zoo"は、この分野の研究と開発を容易にするために、数千のGPUトレーニング日を必要とする大規模なデータセットである。
1)トランスモデルのトークン位置を学習すること、(2)NeRFモデルに関して直接3Dカメラが2D画像のポーズを取ること、である。
これにより、画像分類、セマンティックセグメンテーション、および3次元ポーズ回帰の3つのタスクすべてのパフォーマンスが向上し、研究のための新たな道が開けることになる。
論文 参考訳(メタデータ) (2024-06-25T10:20:44Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - VCVW-3D: A Virtual Construction Vehicles and Workers Dataset with 3D
Annotations [0.0]
本稿では,VCVW-3Dという3Dアノテーションを用いた仮想データセットの作成とリリースを行う。
このデータセットの特徴は、マルチシーン、マルチカテゴリ、マルチビューポイント、マルチアノテーション、両眼視である。
典型的な2Dおよびモノラルな3Dオブジェクト検出モデルは、VCVW-3Dデータセットでトレーニングされ、評価される。
論文 参考訳(メタデータ) (2023-05-29T07:42:10Z) - LWSIS: LiDAR-guided Weakly Supervised Instance Segmentation for
Autonomous Driving [34.119642131912485]
より巧妙なフレームワークであるLiDAR誘導弱監視インスタンス(LWSIS)を提示する。
LWSISは市販の3Dデータ、すなわちポイントクラウドと3Dボックスを2Dイメージインスタンスセグメンテーションモデルをトレーニングするための自然な弱い監督手段として使用している。
我々のLWSISは、訓練中のマルチモーダルデータの補完情報を利用するだけでなく、密集した2Dマスクのコストを大幅に削減します。
論文 参考訳(メタデータ) (2022-12-07T08:08:01Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。