論文の概要: Image segmentation and classification of E-waste for waste segregation
- arxiv url: http://arxiv.org/abs/2506.07122v1
- Date: Sun, 08 Jun 2025 13:09:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.679944
- Title: Image segmentation and classification of E-waste for waste segregation
- Title(参考訳): 廃棄物の分離のためのE-wasteのイメージセグメンテーションと分類
- Authors: Prakriti Tripathi, Theertha Biju, Maniram Thota, Rakesh Lingam,
- Abstract要約: このモデルは、e-wasteの分離を行うために、ピックアップ・アンド・プレイス・ロボットとさらに統合される。
最初は、マウスや充電器などの一般的な電子廃棄物を解体し、写真を撮ってカスタムデータセットを作成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Industry partners provided a problem statement that involves classifying electronic waste using machine learning models that will be used by pick-and-place robots for waste segregation. We started by taking common electronic waste items, such as a mouse and charger, unsoldering them, and taking pictures to create a custom dataset. Then state-of-the art YOLOv11 model was trained and run to achieve 70 mAP in real-time. Mask-RCNN model was also trained and achieved 41 mAP. The model will be further integrated with pick-and-place robots to perform segregation of e-waste.
- Abstract(参考訳): 産業パートナーは、廃棄物の分離のためにピック・アンド・プレース・ロボットが使用する機械学習モデルを使用して電子廃棄物を分類する問題声明を発表した。
最初は、マウスや充電器などの一般的な電子廃棄物を解体し、写真を撮ってカスタムデータセットを作成しました。
その後、最先端のYOLOv11モデルがトレーニングされ、リアルタイムに70mAPを達成するために実行された。
Mask-RCNNモデルも訓練され41mAPを達成した。
このモデルは、e-wasteの分離を行うために、ピックアップ・アンド・プレイス・ロボットとさらに統合される。
関連論文リスト
- RORem: Training a Robust Object Remover with Human-in-the-Loop [18.008728724618006]
高品質なペアリング学習データを作成するために,Human-in-the-loopを用いた半教師付き学習戦略を提案する。
まず、オープンソースのデータセットから60Kのトレーニングペアを収集し、初期オブジェクト除去モデルをトレーニングします。
次に、人間のフィードバックを利用して高品質なオブジェクト除去ペアを選択し、識別器を訓練して次のトレーニングデータ生成プロセスを自動化する。
論文 参考訳(メタデータ) (2025-01-01T06:07:02Z) - Learning from History: Task-agnostic Model Contrastive Learning for
Image Restoration [79.04007257606862]
本稿では,対象モデル自体から負のサンプルを動的に生成する「歴史からの学習」という革新的な手法を提案する。
我々のアプローチはMCLIR(Model Contrastive Learning for Image Restoration)と呼ばれ、遅延モデルを負のモデルとして再定義し、多様な画像復元タスクと互換性を持たせる。
論文 参考訳(メタデータ) (2023-09-12T07:50:54Z) - Object Detection Using Sim2Real Domain Randomization for Robotic
Applications [0.0]
オブジェクト検出のための領域ランダム化に基づくSIM2real Transfer Learning法を提案する。
最先端の畳み込みニューラルネットワークであるYOLOv4は、さまざまな種類の産業オブジェクトを検出するために訓練されている。
我々のソリューションは、トレーニングに1つの実像のみを使用することで、類似したオブジェクトのクラスを確実に区別できるため、産業ニーズにマッチする。
論文 参考訳(メタデータ) (2022-08-08T14:16:45Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Multi-Class Zero-Shot Learning for Artistic Material Recognition [68.8204255655161]
Zero-Shot Learning(ZSL)は、トランスファーラーニングの極端な形態であり、トレーニング段階で分類されるデータのラベル付き例は提供されない。
ここでは、作品の主題の英語記述と合成資料との関係を学習することにより、作品が作成された資料を特定するためのモデルについて概説する。
我々は、全く異なる博物館のデータセットから、作品に使われている素材を正確に識別できるモデルを作成する。
論文 参考訳(メタデータ) (2020-10-26T19:04:50Z) - Comparative Analysis of Multiple Deep CNN Models for Waste
Classification [0.0]
このプロジェクトはよく知られたDeep Learning Networkアーキテクチャを、独自の取り組みとTrush Netを組み合わせたデータセットによる廃棄物分類でテストした。
ダストビンの形で作られたハードウェアは、それらの廃棄物を異なる区画に分離するために使用される。
論文 参考訳(メタデータ) (2020-04-05T11:50:27Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。