論文の概要: ISC-Perception: A Hybrid Computer Vision Dataset for Object Detection in Novel Steel Assembly
- arxiv url: http://arxiv.org/abs/2511.03098v1
- Date: Wed, 05 Nov 2025 01:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.283434
- Title: ISC-Perception: A Hybrid Computer Vision Dataset for Object Detection in Novel Steel Assembly
- Title(参考訳): ISC-Perception:新しい鋼の集合体における物体検出のためのハイブリッドコンピュータビジョンデータセット
- Authors: Miftahur Rahman, Samuel Adebayo, Dorian A. Acevedo-Mejia, David Hester, Daniel McPolin, Karen Rafferty, Debra F. Laefer,
- Abstract要約: ISCコンポーネント検出のために設計された最初のハイブリッドデータセットであるICC-Perceptionを紹介する。
プロシージャでレンダリングされたCAD画像、ゲームエンジンシーン、および実際の写真のキュレートされたセットをブレンドし、合成部分を完全に自動でラベル付けする。
ISC-Perceptionで訓練された検出器は平均精度を0.756のIoU 0.50で達成した。
- 参考スコア(独自算出の注目度): 2.477269764121925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Intermeshed Steel Connection (ISC) system, when paired with robotic manipulators, can accelerate steel-frame assembly and improve worker safety by eliminating manual assembly. Dependable perception is one of the initial stages for ISC-aware robots. However, this is hampered by the absence of a dedicated image corpus, as collecting photographs on active construction sites is logistically difficult and raises safety and privacy concerns. In response, we introduce ISC-Perception, the first hybrid dataset expressly designed for ISC component detection. It blends procedurally rendered CAD images, game-engine photorealistic scenes, and a limited, curated set of real photographs, enabling fully automatic labelling of the synthetic portion. We explicitly account for all human effort to produce the dataset, including simulation engine and scene setup, asset preparation, post-processing scripts and quality checks; our total human time to generate a 10,000-image dataset was 30.5,h versus 166.7,h for manual labelling at 60,s per image (-81.7%). A manual pilot on a representative image with five instances of ISC members took 60,s (maximum 80,s), anchoring the manual baseline. Detectors trained on ISC-Perception achieved a mean Average Precision at IoU 0.50 of 0.756, substantially surpassing models trained on synthetic-only or photorealistic-only data. On a 1,200-frame bench test, we report mAP@0.50/mAP@[0.50:0.95] of 0.943/0.823. By bridging the data gap for construction-robotics perception, ISC-Perception facilitates rapid development of custom object detectors and is freely available for research and industrial use upon request.
- Abstract(参考訳): インターメッシュ・スチール・コネクション(ISC)システムは、ロボットマニピュレータと組み合わせることで、スチールフレームの組み立てを加速し、手動の組み立てをなくすことで作業者の安全性を向上させることができる。
依存知覚は、ICC対応ロボットの初期段階の1つである。
しかし、アクティブな建設現場で写真を集めることは論理的に困難であり、安全とプライバシーの懸念が高まるため、専用画像コーパスがないため、これは妨げられている。
In response, we introduced ISC-Perception, a first hybrid dataset expressly designed for ISC component detection。
プロシージャでレンダリングされたCAD画像、ゲームエンジンのフォトリアリスティックシーン、および限定されたリアル写真のセットを組み合わせることで、合成部分を完全に自動でラベル付けすることができる。
私たちは、シミュレーションエンジンやシーン設定、アセット準備、後処理スクリプト、品質チェックを含む、データセットを作成するためのすべての人的労力を明示的に説明しています。
代表画像上の手動操縦士は、5人のICCメンバーが60,s(最大80,s)で手動のベースラインを固定した。
ISC-Perceptionで訓練された検出器は平均精度を0.756のIoU 0.50で達成した。
1,200フレームのベンチ試験では, 0.943/0.823のmAP@0.50/mAP@[0.50:0.95]を報告した。
建設ロボティクスの知覚のためにデータギャップを埋めることにより、ISC-Perceptionはカスタムオブジェクト検出器の迅速な開発を促進し、要求に応じて研究や工業利用に自由に利用できる。
関連論文リスト
- The effects of using created synthetic images in computer vision training [0.0]
本稿では,Unreal Engine 4(UE)のようなレンダリングエンジンを用いて,深層コンピュータビジョン(CV)モデルのためのデータセットを補完する合成画像を作成する方法について検討する。
UEのレンダリングされた合成イメージを使用することで、開発者やビジネスに、ほぼ無制限で再現性があり、アジャイルで、安価なトレーニングセットにアクセスする方法を提供する。
論文 参考訳(メタデータ) (2025-06-03T23:20:24Z) - CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,新しい駆動ビュー合成評価のための合成データセットを提案する。
トレーニングコースから逸脱した画像を1~4ドル(約1,400円)で撮影する。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - CVPR MultiEarth 2023 Deforestation Estimation
Challenge:SpaceVision4Amazon [5.156484100374058]
EO(Electro-Optical)とSAR(Synthetic Aperture Radar)の衛星画像を用いた注意誘導UNetアーキテクチャに基づく森林破壊推定手法を提案する。
光画像、Landsat-8およびSAR画像では、Sentinel-1データを使用して提案されたモデルのトレーニングと検証を行っている。
訓練期間中、ランドサット-8は93.45%のトレーニングと検証ピクセルの精度を達成し、センチネル-2は83.87%の精度を達成した。
論文 参考訳(メタデータ) (2023-07-10T17:25:04Z) - PDIWS: Thermal Imaging Dataset for Person Detection in Intrusion Warning
Systems [0.0]
データセットは2000イメージのトレーニングセットと500イメージのテストセットで構成されている。
全50の背景があり、1000人近い被験者は5つのポーズに従って5つのクラスに分けられる。
最初の4つのポーズが検出された場合、侵入者の存在を確認する。
論文 参考訳(メタデータ) (2023-02-26T11:02:34Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。