論文の概要: Digital Twin Driven Textile Classification and Foreign Object Recognition in Automated Sorting Systems
- arxiv url: http://arxiv.org/abs/2603.05230v1
- Date: Thu, 05 Mar 2026 14:42:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.275644
- Title: Digital Twin Driven Textile Classification and Foreign Object Recognition in Automated Sorting Systems
- Title(参考訳): 自動ソーティングシステムにおけるディジタルツイン駆動型繊維分類と異物認識
- Authors: Serkan Ergun, Tobias Mitterer, Hubert Zangl,
- Abstract要約: 本研究は, 触覚予測, マルチモーダル知覚, 実世界の繊維分類のための意味推論を統合した, ディジタルツイン駆動型ロボットソートシステムを提案する。
RGBDセンシング、キャパシタ触覚フィードバック、衝突認識動作計画を備えたデュアルアームロボットセルは、衣服を非分類のバスケットから自律的に分離する。
MoveItと組み合わせたデジタルツインは、衝突認識経路計画を可能にし、検査された衣服のセグメント化された3D点雲を仮想環境に統合し、操作信頼性を向上させる。
- 参考スコア(独自算出の注目度): 0.5448283690603357
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing demand for sustainable textile recycling requires robust automation solutions capable of handling deformable garments and detecting foreign objects in cluttered environments. This work presents a digital twin driven robotic sorting system that integrates grasp prediction, multi modal perception, and semantic reasoning for real world textile classification. A dual arm robotic cell equipped with RGBD sensing, capacitive tactile feedback, and collision-aware motion planning autonomously separates garments from an unsorted basket, transfers them to an inspection zone, and classifies them using state of the art Visual Language Models (VLMs). We benchmark nine VLM s from five model families on a dataset of 223 inspection scenarios comprising shirts, socks, trousers, underwear, foreign objects (including garments outside of the aforementioned classes), and empty scenes. The evaluation assesses per class accuracy, hallucination behavior, and computational performance under practical hardware constraints. Results show that the Qwen model family achieves the highest overall accuracy (up to 87.9 %), with strong foreign object detection performance, while lighter models such as Gemma3 offer competitive speed accuracy trade offs for edge deployment. A digital twin combined with MoveIt enables collision aware path planning and integrates segmented 3D point clouds of inspected garments into the virtual environment for improved manipulation reliability. The presented system demonstrates the feasibility of combining semantic VLM reasoning with conventional grasp detection and digital twin technology for scalable, autonomous textile sorting in realistic industrial settings.
- Abstract(参考訳): 持続可能な繊維リサイクルの需要が高まるには、変形可能な衣服を扱い、乱雑な環境下で異物を検出することのできる堅牢な自動化ソリューションが必要である。
本研究は, 触覚予測, マルチモーダル知覚, 実世界の繊維分類のための意味推論を統合した, ディジタルツイン駆動型ロボットソートシステムを提案する。
RGBDセンシング、キャパシタ触覚フィードバック、衝突対応動作計画を備えたデュアルアームロボットセルは、衣服を分類されていないバスケットから自律的に分離し、検査ゾーンに転送し、最先端のビジュアル言語モデル(VLM)を使用して分類する。
筆者らは,シャツ,靴下,ズボン,下着,異物(前述のクラス以外の衣服を含む),空のシーンを含む223の検査シナリオのデータセットを用いて,モデルファミリーの9つのVLMをベンチマークした。
この評価は,実ハードウェア制約下でのクラス精度,幻覚行動,計算性能について評価する。
その結果,Qwen モデルファミリは高い総合精度 (87.9% %) を達成し,外部オブジェクト検出性能は高いが,Gemma3 などの軽量モデルではエッジ展開の速度精度のトレードオフが期待できることがわかった。
MoveItと組み合わせたデジタルツインは、衝突認識経路計画を可能にし、検査された衣服のセグメント化された3D点雲を仮想環境に統合し、操作信頼性を向上させる。
本システムでは, 実産業環境において, セマンティックVLM推論と従来の把握検出とデジタルツイン技術を組み合わせて, スケーラブルで自律的な繊維選別を実現することの実現可能性を示した。
関連論文リスト
- Zero-Shot Multi-Criteria Visual Quality Inspection for Semi-Controlled Industrial Environments via Real-Time 3D Digital Twin Simulation [5.0268543063681195]
RGB-D空間における実シーンとリアルタイムデジタル双対(DT)を比較したポーズに依存しないゼロショット品質検査フレームワークを提案する。
提案手法は,オブジェクト検出とポーズ推定により,産業シーンを意味的に記述することで,効率的なリアルタイムDTレンダリングを実現する。
軸流モータの品質検査を特徴とする自動車用ユースケースに基づいて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2025-11-28T14:19:31Z) - MetaScenes: Towards Automated Replica Creation for Real-world 3D Scans [76.39726619818896]
EAI(Embodied AI)の研究は、スキル獲得、シミュレート・トゥ・リアル・トランスファー、一般化をサポートするために、高品質で多様な3Dシーンを必要とする。
既存のデータセットは、このプロセスがアーティスト主導の設計に大きく依存していることを示している。
実世界のスキャンから構築した大規模でシミュレート可能な3DシーンデータセットであるMetaScenesを提案する。
論文 参考訳(メタデータ) (2025-05-05T06:13:25Z) - Articulate3D: Holistic Understanding of 3D Scenes as Universal Scene Description [56.69740649781989]
3Dシーン理解は、コンピュータビジョンにおける長年の課題であり、混合現実、ウェアラブルコンピューティング、そして具体化されたAIを実現する上で重要な要素である。
室内280のシーンに高品質な手動アノテーションを付加した専門的な3DデータセットであるArticulate3Dを紹介する。
我々はまた,部分分割を同時に予測できる新しい統一フレームワークUSDNetと,オブジェクトの動作属性の完全な仕様を提示する。
論文 参考訳(メタデータ) (2024-12-02T11:33:55Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Articulate-Anything: Automatic Modeling of Articulated Objects via a Vision-Language Foundation Model [35.184607650708784]
Articulate-Anythingは、テキスト、画像、ビデオを含む多くの入力モダリティから、多種多様な複雑なオブジェクトの明瞭化を自動化する。
本システムでは,メッシュ検索機構を通じて既存の3Dデータセットを,反復的に提案,評価,洗練を行うアクタ・クリティカル・システムとともに活用する。
論文 参考訳(メタデータ) (2024-10-03T19:42:16Z) - SKT: Integrating State-Aware Keypoint Trajectories with Vision-Language Models for Robotic Garment Manipulation [82.61572106180705]
本稿では、視覚言語モデル(VLM)を用いて、様々な衣服カテゴリーにおけるキーポイント予測を改善する統一的なアプローチを提案する。
我々は、高度なシミュレーション技術を用いて大規模な合成データセットを作成し、大規模な実世界のデータを必要としないスケーラブルなトレーニングを可能にした。
実験結果から, VLM法はキーポイント検出精度とタスク成功率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-09-26T17:26:16Z) - Investigation of the Impact of Synthetic Training Data in the Industrial
Application of Terminal Strip Object Detection [4.327763441385371]
本稿では,端末ストリップ物体検出の複雑な産業応用における標準対象検出器のシム・トゥ・リアル一般化性能について検討する。
評価のために300個の実画像に手動でアノテートを行った結果,どちらの領域でも同じ規模の興味の対象が重要であることがわかった。
論文 参考訳(メタデータ) (2024-03-06T18:33:27Z) - CrowdSim2: an Open Synthetic Benchmark for Object Detectors [0.7223361655030193]
本稿では,人や車両検出に適した画像の合成コレクションであるCrowdSim2を公開・公開する。
それは、現実世界に似た様々な合成シナリオから集められた何千もの画像で構成されており、興味のある要素は様々である。
我々は、この新しいベンチマークを最先端の検出器のテストグラウンドとして利用し、シミュレートされたシナリオが、制御された環境でのパフォーマンスを測定する貴重なツールであることを示した。
論文 参考訳(メタデータ) (2023-04-11T09:35:57Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。