論文の概要: Robotic Waste Sorter with Agile Manipulation and Quickly Trainable
Detector
- arxiv url: http://arxiv.org/abs/2104.01260v1
- Date: Fri, 2 Apr 2021 22:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:24:42.688757
- Title: Robotic Waste Sorter with Agile Manipulation and Quickly Trainable
Detector
- Title(参考訳): アジャイル操作とクイックトレーニング可能な検出機能を備えたロボット廃棄物センサ
- Authors: Takuya Kiyokawa, Hiroki Katayama, Yuya Tatsuta, Jun Takamatsu, Tsukasa
Ogasawara
- Abstract要約: 廃棄物処理を自動化する目的は、ロボットによる廃棄物の堅牢な検出とアジャイル操作の人間的役割を置き換えることである。
まず,ハンドレスなプッシュ・アンド・ドロップ操作とピック・アンド・リリース操作を組み合わせた操作手法を提案する。
次に,物体画像を自動的に収集し,深層ニューラルネットワークモデルを迅速に訓練するロボットシステムを提案する。
- 参考スコア(独自算出の注目度): 3.3073775218038883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Owing to human labor shortages, the automation of labor-intensive manual
waste-sorting is needed. The goal of automating the waste-sorting is to replace
the human role of robust detection and agile manipulation of the waste items by
robots. To achieve this, we propose three methods. First, we propose a combined
manipulation method using graspless push-and-drop and pick-and-release
manipulation. Second, we propose a robotic system that can automatically
collect object images to quickly train a deep neural network model. Third, we
propose the method to mitigate the differences in the appearance of target
objects from two scenes: one for the dataset collection and the other for waste
sorting in a recycling factory. If differences exist, the performance of a
trained waste detector could be decreased. We address differences in
illumination and background by applying object scaling, histogram matching with
histogram equalization, and background synthesis to the source target-object
images. Via experiments in an indoor experimental workplace for waste-sorting,
we confirmed the proposed methods enable quickly collecting the training image
sets for three classes of waste items, i.e., aluminum can, glass bottle, and
plastic bottle and detecting them with higher performance than the methods that
do not consider the differences. We also confirmed that the proposed method
enables the robot quickly manipulate them.
- Abstract(参考訳): 人的労働不足のため、労働集約型手作業廃棄物整理の自動化が必要である。
廃棄物処理を自動化する目的は、ロボットによる廃棄物の堅牢な検出とアジャイル操作の人間的役割を置き換えることである。
そこで我々は3つの手法を提案する。
まず,ハンドレスなプッシュ・アンド・ドロップ操作とピック・アンド・リリース操作を組み合わせた操作手法を提案する。
次に,物体画像を自動的に収集し,深層ニューラルネットワークモデルを迅速に訓練するロボットシステムを提案する。
第3に, リサイクル工場における廃棄物選別とデータセット収集の2つの場面から, 対象物の外観の違いを緩和する手法を提案する。
相違がある場合、訓練された廃棄物検知器の性能が低下する可能性がある。
対象のスケーリング,ヒストグラム等化とマッチングしたヒストグラム,背景画像への背景合成を応用して,照明と背景の差異に対処する。
本研究では, 室内における廃棄物選別実験において, アルミニウム缶, ガラス瓶, ペットボトルの3種類の廃棄物の訓練用画像集合を迅速に収集し, それらの差異を考慮しない方法よりも高い性能で検出できることを確認した。
また,提案手法によりロボットが素早く操作できることを確認した。
関連論文リスト
- On the Effectiveness of Retrieval, Alignment, and Replay in Manipulation [14.037205215634538]
視覚的観察による模倣学習は、エンド・ツー・エンドの行動的クローン法に対処する場合、非効率であることが知られている。
本稿では、推論を3つのフェーズに分解する代替パラダイムについて検討する。
この分解は、前例のない学習効率と、クラス間およびクラス内における効果的な一般化をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-19T17:17:52Z) - Deteksi Sampah di Permukaan dan Dalam Perairan pada Objek Video dengan
Metode Robust and Efficient Post-Processing dan Tubelet-Level Bounding Box
Linking [0.0]
本稿では, 自動ゴミ収集ロボットにおいて, 映像オブジェクト検出に応用可能な手法について説明する。
本研究は, YOLOv5モデルとRobust & Efficient Post Processing (REPP)法と, FloWおよびRoboflowデータセット上にリンクするチューブレットレベルのバウンディングボックスを利用する。
その結果, 後処理段階とチューブレットレベルのバウンディングボックスリンクにより検出精度が向上し, YOLOv5単独と比較して約3%高い性能が得られた。
論文 参考訳(メタデータ) (2023-07-14T04:04:15Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Automatically Prepare Training Data for YOLO Using Robotic In-Hand
Observation and Synthesis [14.034128227585143]
本稿では,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案する。
収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。
その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-01-04T04:20:08Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。