論文の概要: Image Segmentation and Classification of E-waste for Training Robots for Waste Segregation
- arxiv url: http://arxiv.org/abs/2506.07122v2
- Date: Mon, 22 Sep 2025 21:11:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 16:16:25.679557
- Title: Image Segmentation and Classification of E-waste for Training Robots for Waste Segregation
- Title(参考訳): 廃棄物分離のための訓練ロボットのための画像分割とE-wasteの分類
- Authors: Prakriti Tripathi,
- Abstract要約: このモデルは、e-wasteの分離を行うために、ピックアップ・アンド・プレイス・ロボットと統合することができる。
これは、マウスや充電器のような一般的な電子廃棄物を回収し、それを解き放ち、カスタムデータセットを作成するために写真を撮ることで達成された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Industry partners provided a problem statement that involves classifying electronic waste using machine learning models that will be used by pick-and-place robots for waste segregation. This was achieved by taking common electronic waste items, such as a mouse and charger, unsoldering them, and taking pictures to create a custom dataset. Then state-of-the art YOLOv11 model was trained and run to achieve 70 mAP in real-time. Mask-RCNN model was also trained and achieved 41 mAP. The model can be integrated with pick-and-place robots to perform segregation of e-waste.
- Abstract(参考訳): 産業パートナーは、廃棄物の分離のためにピック・アンド・プレース・ロボットが使用する機械学習モデルを使用して電子廃棄物を分類する問題声明を発表した。
これは、マウスや充電器のような一般的な電子廃棄物を回収し、それを解き放ち、カスタムデータセットを作成するために写真を撮ることで達成された。
その後、最先端のYOLOv11モデルがトレーニングされ、リアルタイムに70mAPを達成するために実行された。
Mask-RCNNモデルも訓練され41mAPを達成した。
このモデルは、e-wasteの分離を行うために、ピックアップ・アンド・プレイス・ロボットと統合することができる。
関連論文リスト
- Toward Aligning Human and Robot Actions via Multi-Modal Demonstration Learning [3.9738951919572827]
本稿では,Voxelized RGB-D空間におけるロボットデモを用いて,RGBビデオから人間デモを明示的にモデル化するフレームワークを提案する。
本稿では,人間の意図モデリングのためのResNetベースの視覚符号化と,ボクセルに基づくロボット行動予測のためのPerceiver Transformerを組み合わせる。
論文 参考訳(メタデータ) (2025-04-14T21:14:51Z) - RORem: Training a Robust Object Remover with Human-in-the-Loop [18.008728724618006]
高品質なペアリング学習データを作成するために,Human-in-the-loopを用いた半教師付き学習戦略を提案する。
まず、オープンソースのデータセットから60Kのトレーニングペアを収集し、初期オブジェクト除去モデルをトレーニングします。
次に、人間のフィードバックを利用して高品質なオブジェクト除去ペアを選択し、識別器を訓練して次のトレーニングデータ生成プロセスを自動化する。
論文 参考訳(メタデータ) (2025-01-01T06:07:02Z) - AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents [109.3804962220498]
AutoRTは、人間の監督を最小限に抑えて、完全に見えないシナリオで運用ロボットの展開をスケールアップするシステムである。
われわれはAutoRTが複数の建物にまたがる20以上のロボットに指示を提示し、遠隔操作と自律ロボットポリシーを通じて77万個の実ロボットエピソードを収集するデモを行った。
実験により,AutoRTが収集した「未使用データ」は極めて多種多様であり,AutoRTのLLMを使用することで,人間の好みに合わせることができるデータ収集ロボットの指示が可能であることを実証した。
論文 参考訳(メタデータ) (2024-01-23T18:45:54Z) - Machine learning refinement of in situ images acquired by low electron
dose LC-TEM [0.9421843976231371]
液晶透過電子顕微鏡(LC-TEM)を用いたその場観察で得られた画像の精細化のための機械学習(ML)技術について検討した。
本モデルは,U-NetアーキテクチャとResNetエンコーダを用いて構築されている。
論文 参考訳(メタデータ) (2023-10-31T08:48:59Z) - MimicGen: A Data Generation System for Scalable Robot Learning using
Human Demonstrations [55.549956643032836]
MimicGenは、少数の人間のデモから大規模でリッチなデータセットを自動的に合成するシステムである。
ロボットエージェントは,この生成したデータセットを模倣学習により効果的に訓練し,長期的・高精度なタスクにおいて高い性能を達成することができることを示す。
論文 参考訳(メタデータ) (2023-10-26T17:17:31Z) - Learning from History: Task-agnostic Model Contrastive Learning for
Image Restoration [79.04007257606862]
本稿では,対象モデル自体から負のサンプルを動的に生成する「歴史からの学習」という革新的な手法を提案する。
我々のアプローチはMCLIR(Model Contrastive Learning for Image Restoration)と呼ばれ、遅延モデルを負のモデルとして再定義し、多様な画像復元タスクと互換性を持たせる。
論文 参考訳(メタデータ) (2023-09-12T07:50:54Z) - Automatically Prepare Training Data for YOLO Using Robotic In-Hand
Observation and Synthesis [14.034128227585143]
本稿では,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案する。
収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。
その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-01-04T04:20:08Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Object Detection Using Sim2Real Domain Randomization for Robotic
Applications [0.0]
オブジェクト検出のための領域ランダム化に基づくSIM2real Transfer Learning法を提案する。
最先端の畳み込みニューラルネットワークであるYOLOv4は、さまざまな種類の産業オブジェクトを検出するために訓練されている。
我々のソリューションは、トレーニングに1つの実像のみを使用することで、類似したオブジェクトのクラスを確実に区別できるため、産業ニーズにマッチする。
論文 参考訳(メタデータ) (2022-08-08T14:16:45Z) - Classification of EEG Motor Imagery Using Deep Learning for
Brain-Computer Interface Systems [79.58173794910631]
トレーニングされたT1クラス畳み込みニューラルネットワーク(CNN)モデルを使用して、運動画像の識別を成功させる能力を調べる。
理論的には、モデルが正確にトレーニングされた場合、クラスを特定し、それに従ってラベル付けすることが可能になる。
CNNモデルは復元され、より小さなサンプルデータを使用して同じ種類の運動画像データを特定するために使用される。
論文 参考訳(メタデータ) (2022-05-31T17:09:46Z) - Half-Real Half-Fake Distillation for Class-Incremental Semantic
Segmentation [84.1985497426083]
畳み込みニューラルネットワークは漸進的な学習に不適である。
新しいクラスは利用できるが、初期トレーニングデータは保持されない。
訓練されたセグメンテーションネットワークを「反転」して、ランダムノイズから始まる入力画像の合成を試みる。
論文 参考訳(メタデータ) (2021-04-02T03:47:16Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Fast Ensemble Learning Using Adversarially-Generated Restricted
Boltzmann Machines [0.0]
Restricted Boltzmann Machine (RBM)は近年注目され、データ確率分布をモデル化するエネルギーベースの構造に依存している。
本稿では,事前学習した重み行列がGAN入力として機能するAdversarial Learningを用いて,RBMを人工的に生成することを提案する。
画像再構成および画像分類タスクにおける提案手法の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2021-01-04T16:00:47Z) - Multi-Class Zero-Shot Learning for Artistic Material Recognition [68.8204255655161]
Zero-Shot Learning(ZSL)は、トランスファーラーニングの極端な形態であり、トレーニング段階で分類されるデータのラベル付き例は提供されない。
ここでは、作品の主題の英語記述と合成資料との関係を学習することにより、作品が作成された資料を特定するためのモデルについて概説する。
我々は、全く異なる博物館のデータセットから、作品に使われている素材を正確に識別できるモデルを作成する。
論文 参考訳(メタデータ) (2020-10-26T19:04:50Z) - Comparative Analysis of Multiple Deep CNN Models for Waste
Classification [0.0]
このプロジェクトはよく知られたDeep Learning Networkアーキテクチャを、独自の取り組みとTrush Netを組み合わせたデータセットによる廃棄物分類でテストした。
ダストビンの形で作られたハードウェアは、それらの廃棄物を異なる区画に分離するために使用される。
論文 参考訳(メタデータ) (2020-04-05T11:50:27Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。