論文の概要: SynthRender and IRIS: Open-Source Framework and Dataset for Bidirectional Sim-Real Transfer in Industrial Object Perception
- arxiv url: http://arxiv.org/abs/2602.21141v1
- Date: Tue, 24 Feb 2026 17:42:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.867636
- Title: SynthRender and IRIS: Open-Source Framework and Dataset for Bidirectional Sim-Real Transfer in Industrial Object Perception
- Title(参考訳): SynthRender と IRIS: 産業用オブジェクト認識における双方向シミュレーショナルトランスファーのためのオープンソースフレームワークとデータセット
- Authors: Jose Moises Araya-Martinez, Thushar Tom, Adrián Sanchis Reig, Pablo Rey Valiente, Jens Lambrecht, Jörg Krüger,
- Abstract要約: 我々は、ガイドドドメインランダム化機能を備えた合成画像生成のためのオープンソースのフレームワークであるSynthRenderをリリースした。
また, 実物の2次元画像から3次元のアセットを作成するために, 現実感とシミュレーションの手法のベンチマークを行った。
これらの合成資産は、3Dファイルが欠けている部分であっても、低オーバーヘッドで転送可能なデータを提供する。
- 参考スコア(独自算出の注目度): 5.278929538141005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object perception is fundamental for tasks such as robotic material handling and quality inspection. However, modern supervised deep-learning perception models require large datasets for robust automation under semi-uncontrolled conditions. The cost of acquiring and annotating such data for proprietary parts is a major barrier for widespread deployment. In this context, we release SynthRender, an open source framework for synthetic image generation with Guided Domain Randomization capabilities. Furthermore, we benchmark recent Reality-to-Simulation techniques for 3D asset creation from 2D images of real parts. Combined with Domain Randomization, these synthetic assets provide low-overhead, transferable data even for parts lacking 3D files. We also introduce IRIS, the Industrial Real-Sim Imagery Set, containing 32 categories with diverse textures, intra-class variation, strong inter-class similarities and about 20,000 labels. Ablations on multiple benchmarks outline guidelines for efficient data generation with SynthRender. Our method surpasses existing approaches, achieving 99.1% mAP@50 on a public robotics dataset, 98.3% mAP@50 on an automotive benchmark, and 95.3% mAP@50 on IRIS.
- Abstract(参考訳): 物体認識は、ロボット材料処理や品質検査といったタスクに基本となる。
しかし、現代の教師付きディープラーニング認識モデルは、半制御されていない条件下での堅牢な自動化のために大きなデータセットを必要とする。
このようなデータをプロプライエタリな部分に対して取得し、注釈付けるコストは、広く展開する上で大きな障壁となります。
この文脈では、ガイド付きドメインランダム化機能を備えた合成画像生成のためのオープンソースのフレームワークであるSynthRenderをリリースする。
さらに,本研究では,実物の2次元画像から3次元のアセットを作成するために,最近のAR手法をベンチマークする。
ドメインランダム化(Domain Randomization)と組み合わせることで、これらの合成資産は、3Dファイルが欠けている部分であっても、低オーバーヘッドで転送可能なデータを提供する。
また,IRIS(Industrial Real-Sim Imagery Set)についても紹介し,多彩なテクスチャ,クラス内変異,クラス間類似性,約20,000のラベルを含む32のカテゴリについて紹介する。
SynthRenderによる効率的なデータ生成のガイドラインは、複数のベンチマークのアブレーションで概説されている。
我々の手法は既存のアプローチを超え、公開ロボティクスデータセットで99.1% mAP@50、自動車ベンチマークで98.3% mAP@50、IRISで95.3% mAP@50を達成している。
関連論文リスト
- BlendCLIP: Bridging Synthetic and Real Domains for Zero-Shot 3D Object Classification with Multimodal Pretraining [2.400704807305413]
ゼロショットの3Dオブジェクト分類は、自動運転のような現実世界のアプリケーションには不可欠だ。
トレーニングに使用される合成データと、現実世界で遭遇するノイズの多いLiDARスキャンとの間の大きな領域ギャップによって、しばしば妨げられる。
BlendCLIPは、両ドメインの強みを戦略的に組み合わせることで、この合成と現実のギャップを橋渡しするマルチモーダル事前学習フレームワークである。
論文 参考訳(メタデータ) (2025-10-21T03:08:27Z) - Scaling Transformer-Based Novel View Synthesis Models with Token Disentanglement and Synthetic Data [53.040873127309766]
本稿では,トランスアーキテクチャ内でのトークンのアンタングル化プロセスを提案し,特徴分離を向上し,より効果的な学習を実現する。
提案手法は,データセット内およびデータセット間の評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2025-09-08T17:58:06Z) - RoboTwin 2.0: A Scalable Data Generator and Benchmark with Strong Domain Randomization for Robust Bimanual Robotic Manipulation [52.2244588424002]
我々は,多様かつ現実的なデータの自動生成のためのスケーラブルなフレームワークであるRoboTwin 2.0を紹介する。
コアとなるRoboTwin-ODは、セマンティックおよび操作関連アノテーションを備えた147カテゴリにわたる771インスタンスのオブジェクトライブラリである。
sim-to-real転送を改善するために、RoboTwin 2.0は5つの軸に沿って構造化された領域ランダム化を適用する。
論文 参考訳(メタデータ) (2025-06-22T16:26:53Z) - Step1X-3D: Towards High-Fidelity and Controllable Generation of Textured 3D Assets [90.99212668875971]
Step1X-3Dは、データの不足、アルゴリズムの制限、エコシステムの断片化といった課題に対処するオープンフレームワークである。
拡散型テクスチャ合成モジュールとハイブリッドVAE-DiTジオメトリジェネレータを組み合わせた2段階の3Dネイティブアーキテクチャを提案する。
ベンチマークの結果は、既存のオープンソースメソッドを超える最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-05-12T16:56:30Z) - MegaSynth: Scaling Up 3D Scene Reconstruction with Synthesized Data [59.88075377088134]
合成データを用いたトレーニングにより3次元シーン再構成のスケールアップを提案する。
私たちの研究の中心は、700Kシーンからなる手続き的に生成された3DデータセットであるMega Synthです。
実験の結果,Mega Synthとの共同トレーニングや事前トレーニングにより,画像領域間で1.2~1.8dBPSNRの再現性が改善された。
論文 参考訳(メタデータ) (2024-12-18T18:59:38Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - Investigation of the Impact of Synthetic Training Data in the Industrial
Application of Terminal Strip Object Detection [4.327763441385371]
本稿では,端末ストリップ物体検出の複雑な産業応用における標準対象検出器のシム・トゥ・リアル一般化性能について検討する。
評価のために300個の実画像に手動でアノテートを行った結果,どちらの領域でも同じ規模の興味の対象が重要であることがわかった。
論文 参考訳(メタデータ) (2024-03-06T18:33:27Z) - SynTable: A Synthetic Data Generation Pipeline for Unseen Object Amodal Instance Segmentation of Cluttered Tabletop Scenes [2.8661021832561757]
我々はNVIDIAのIsaac Sim Replicator Composerを使って構築されたPythonベースのデータセットジェネレータであるSynTableを紹介する。
私たちのデータセット生成ツールは、オブジェクトメッシュ、材料、テクスチャ、照明、背景を含む複雑な3Dシーンをレンダリングすることができます。
我々は、SynTableを用いて生成されたサンプルデータセットを用いて、最先端モデルのUOAIS-Netをトレーニングする。
論文 参考訳(メタデータ) (2023-07-14T13:24:42Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。