論文の概要: Robotic Waste Sorter with Agile Manipulation and Quickly Trainable
Detector
- arxiv url: http://arxiv.org/abs/2104.01260v1
- Date: Fri, 2 Apr 2021 22:19:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:24:42.688757
- Title: Robotic Waste Sorter with Agile Manipulation and Quickly Trainable
Detector
- Title(参考訳): アジャイル操作とクイックトレーニング可能な検出機能を備えたロボット廃棄物センサ
- Authors: Takuya Kiyokawa, Hiroki Katayama, Yuya Tatsuta, Jun Takamatsu, Tsukasa
Ogasawara
- Abstract要約: 廃棄物処理を自動化する目的は、ロボットによる廃棄物の堅牢な検出とアジャイル操作の人間的役割を置き換えることである。
まず,ハンドレスなプッシュ・アンド・ドロップ操作とピック・アンド・リリース操作を組み合わせた操作手法を提案する。
次に,物体画像を自動的に収集し,深層ニューラルネットワークモデルを迅速に訓練するロボットシステムを提案する。
- 参考スコア(独自算出の注目度): 3.3073775218038883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Owing to human labor shortages, the automation of labor-intensive manual
waste-sorting is needed. The goal of automating the waste-sorting is to replace
the human role of robust detection and agile manipulation of the waste items by
robots. To achieve this, we propose three methods. First, we propose a combined
manipulation method using graspless push-and-drop and pick-and-release
manipulation. Second, we propose a robotic system that can automatically
collect object images to quickly train a deep neural network model. Third, we
propose the method to mitigate the differences in the appearance of target
objects from two scenes: one for the dataset collection and the other for waste
sorting in a recycling factory. If differences exist, the performance of a
trained waste detector could be decreased. We address differences in
illumination and background by applying object scaling, histogram matching with
histogram equalization, and background synthesis to the source target-object
images. Via experiments in an indoor experimental workplace for waste-sorting,
we confirmed the proposed methods enable quickly collecting the training image
sets for three classes of waste items, i.e., aluminum can, glass bottle, and
plastic bottle and detecting them with higher performance than the methods that
do not consider the differences. We also confirmed that the proposed method
enables the robot quickly manipulate them.
- Abstract(参考訳): 人的労働不足のため、労働集約型手作業廃棄物整理の自動化が必要である。
廃棄物処理を自動化する目的は、ロボットによる廃棄物の堅牢な検出とアジャイル操作の人間的役割を置き換えることである。
そこで我々は3つの手法を提案する。
まず,ハンドレスなプッシュ・アンド・ドロップ操作とピック・アンド・リリース操作を組み合わせた操作手法を提案する。
次に,物体画像を自動的に収集し,深層ニューラルネットワークモデルを迅速に訓練するロボットシステムを提案する。
第3に, リサイクル工場における廃棄物選別とデータセット収集の2つの場面から, 対象物の外観の違いを緩和する手法を提案する。
相違がある場合、訓練された廃棄物検知器の性能が低下する可能性がある。
対象のスケーリング,ヒストグラム等化とマッチングしたヒストグラム,背景画像への背景合成を応用して,照明と背景の差異に対処する。
本研究では, 室内における廃棄物選別実験において, アルミニウム缶, ガラス瓶, ペットボトルの3種類の廃棄物の訓練用画像集合を迅速に収集し, それらの差異を考慮しない方法よりも高い性能で検出できることを確認した。
また,提案手法によりロボットが素早く操作できることを確認した。
関連論文リスト
- Good Grasps Only: A data engine for self-supervised fine-tuning of pose estimation using grasp poses for verification [0.0]
ビンピッキングのためのポーズ推定の自己教師型微調整法を提案する。
本手法により,手動ラベリングを使わずにトレーニングデータを自動的に取得できる。
私たちのパイプラインは、プロセス実行中にシステムを微調整し、学習フェーズの必要性を排除します。
論文 参考訳(メタデータ) (2024-09-17T19:26:21Z) - Affordance-based Robot Manipulation with Flow Matching [6.863932324631107]
本フレームワークは,ロボット操作のためのフローマッチングにより,手頃なモデル学習とトラジェクトリ生成を統一する。
評価の結果,提案手法は,言語プロンサによる手軽さを学習し,競争性能を向上することがわかった。
本フレームワークは,ロボット操作のためのフローマッチングにより,相性モデル学習と軌道生成をシームレスに統合する。
論文 参考訳(メタデータ) (2024-09-02T09:11:28Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Automatically Prepare Training Data for YOLO Using Robotic In-Hand
Observation and Synthesis [14.034128227585143]
本稿では,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案する。
収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。
その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-01-04T04:20:08Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。