論文の概要: Garbage Segmentation and Attribute Analysis by Robotic Dogs
- arxiv url: http://arxiv.org/abs/2404.18112v1
- Date: Sun, 28 Apr 2024 08:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 17:53:05.951491
- Title: Garbage Segmentation and Attribute Analysis by Robotic Dogs
- Title(参考訳): ロボット犬によるガーベッジセグメンテーションと属性解析
- Authors: Nuo Xu, Jianfeng Liao, Qiwei Meng, Wei Song,
- Abstract要約: GSA2Seg(Garbage and Attribute Analysis)は,四足歩行型ロボット犬を自律型エージェントとして利用する視覚的アプローチである。
視覚センサーや インスタンスセグメンテーターを含む 高度な視覚認識システムを備えた ロボット犬は 周囲を十分にナビゲートする
ゴミのセグメンテーションと属性分析技術を組み合わせることで、ロボット犬は、その位置と配置特性を含むゴミの状態を正確に決定する。
- 参考スコア(独自算出の注目度): 10.904341795817848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient waste management and recycling heavily rely on garbage exploration and identification. In this study, we propose GSA2Seg (Garbage Segmentation and Attribute Analysis), a novel visual approach that utilizes quadruped robotic dogs as autonomous agents to address waste management and recycling challenges in diverse indoor and outdoor environments. Equipped with advanced visual perception system, including visual sensors and instance segmentators, the robotic dogs adeptly navigate their surroundings, diligently searching for common garbage items. Inspired by open-vocabulary algorithms, we introduce an innovative method for object attribute analysis. By combining garbage segmentation and attribute analysis techniques, the robotic dogs accurately determine the state of the trash, including its position and placement properties. This information enhances the robotic arm's grasping capabilities, facilitating successful garbage retrieval. Additionally, we contribute an image dataset, named GSA2D, to support evaluation. Through extensive experiments on GSA2D, this paper provides a comprehensive analysis of GSA2Seg's effectiveness. Dataset available: \href{https://www.kaggle.com/datasets/hellob/gsa2d-2024}{https://www.kaggle.com/datasets/hellob/gsa2d-2024}.
- Abstract(参考訳): 効率的な廃棄物管理とリサイクルは、ゴミの探索と識別に大きく依存している。
本研究では, 四足歩行ロボットを自律的エージェントとして利用し, 多様な屋内・屋外環境における廃棄物処理とリサイクルの課題に対処する, GSA2Seg (Garbage Segmentation and Attribute Analysis) を提案する。
視覚センサーやインスタンスセグメンテーターなど、高度な視覚認識システムを備えたこのロボット犬は、周囲を精力的にナビゲートし、一般的なゴミを精力的に探す。
オープンボキャブラリアルゴリズムに着想を得て,オブジェクト属性解析のための革新的な手法を提案する。
ゴミのセグメンテーションと属性分析技術を組み合わせることで、ロボット犬は、その位置と配置特性を含むゴミの状態を正確に決定する。
この情報はロボットアームの把握能力を高め、ゴミの回収を成功させる。
さらに,評価を支援するためにGSA2Dという画像データセットを寄贈する。
本稿では, GSA2Dに関する広範な実験を通じて, GSA2Segの有効性を包括的に分析する。
データセット: \href{https://www.kaggle.com/datasets/hellob/gsa2d-2024}{https://www.kaggle.com/datasets/hellob/gsa2d-2024}
関連論文リスト
- Structured Spatial Reasoning with Open Vocabulary Object Detectors [2.089191490381739]
オブジェクト間の空間的関係に関する推論は多くの実世界のロボット作業において不可欠である。
我々は、リッチな3次元幾何学的特徴と最先端のオープンボキャブラリオブジェクト検出器を統合する構造的確率的アプローチを導入する。
この手法は、空間推論タスクにおける最先端ビジョン・言語モデル(VLM)のゼロショット性能を評価・比較する。
論文 参考訳(メタデータ) (2024-10-09T19:37:01Z) - Embodied-RAG: General Non-parametric Embodied Memory for Retrieval and Generation [65.23793829741014]
Embodied-RAGは、非パラメトリックメモリシステムによるエンボディエージェントのモデルを強化するフレームワークである。
コアとなるEmbodied-RAGのメモリはセマンティックフォレストとして構成され、言語記述を様々なレベルで詳細に保存する。
Embodied-RAGがRAGをロボット領域に効果的にブリッジし、200以上の説明とナビゲーションクエリをうまく処理できることを実証する。
論文 参考訳(メタデータ) (2024-09-26T21:44:11Z) - WasteGAN: Data Augmentation for Robotic Waste Sorting through Generative Adversarial Networks [7.775894876221921]
ムダGANと呼ばれる新しいGANアーキテクチャに基づくデータ拡張手法を提案する。
提案手法は,ラベル付きサンプルのごく限られたセットから,セマンティックセグメンテーションモデルの性能を向上させることができる。
次に、ムダGAN合成データに基づいて訓練されたモデルから予測される高品質なセグメンテーションマスクを活用し、セグメンテーション・アウェア・グルーピング・ポーズを計算する。
論文 参考訳(メタデータ) (2024-09-25T15:04:21Z) - SegVG: Transferring Object Bounding Box to Segmentation for Visual Grounding [56.079013202051094]
ボックスレベルのアノテーションを信号として転送する新しい手法であるSegVGを提案する。
このアプローチでは,ボックスレベルのレグレッションとピクセルレベルのセグメンテーションの両方の信号としてアノテーションを反復的に利用することができる。
論文 参考訳(メタデータ) (2024-07-03T15:30:45Z) - SpectralWaste Dataset: Multimodal Data for Waste Sorting Automation [46.178512739789426]
本稿では, 廃棄物処理施設から収集した最初のデータセットであるSpectralWasteについて紹介する。
このデータセットには、分類植物によく見られるいくつかのカテゴリのオブジェクトのラベルが含まれている。
異なるオブジェクトセグメンテーションアーキテクチャを用いたパイプラインを提案し,その代替案をデータセット上で評価する。
論文 参考訳(メタデータ) (2024-03-26T18:39:38Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - TrashCan: A Semantically-Segmented Dataset towards Visual Detection of
Marine Debris [17.119080859422127]
TrashCanは、さまざまなソースから収集された水中ゴミの大規模なデータセットである。
ロボットの配置に適した効率的で正確なゴミ検出手法を開発することが目的である。
論文 参考訳(メタデータ) (2020-07-16T04:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。