論文の概要: Robot Gaining Accurate Pouring Skills through Self-Supervised Learning
and Generalization
- arxiv url: http://arxiv.org/abs/2011.10150v1
- Date: Thu, 19 Nov 2020 23:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 22:02:21.735209
- Title: Robot Gaining Accurate Pouring Skills through Self-Supervised Learning
and Generalization
- Title(参考訳): 自己教師付き学習と一般化による正確な注水能力を得るロボット
- Authors: Yongqiang Huang, Juan Wilches, Yu Sun
- Abstract要約: 本研究では, 注水力学, 注水動作, および, 正確な注水のための教師なし実証結果から学習する自己指導型学習手法を提案する。
学習した注水モデルは、不慣れな注水カップの使用など、さまざまな条件で自己指導的な練習によって一般化される。
精度と注ぐスピードは、最先端の作業よりも優れています。
- 参考スコア(独自算出の注目度): 6.995906232326475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pouring is one of the most commonly executed tasks in humans' daily lives,
whose accuracy is affected by multiple factors, including the type of material
to be poured and the geometry of the source and receiving containers. In this
work, we propose a self-supervised learning approach that learns the pouring
dynamics, pouring motion, and outcomes from unsupervised demonstrations for
accurate pouring. The learned pouring model is then generalized by
self-supervised practicing to different conditions such as using unaccustomed
pouring cups. We have evaluated the proposed approach first with one container
from the training set and four new but similar containers. The proposed
approach achieved better pouring accuracy than a regular human with a similar
pouring speed for all five cups. Both the accuracy and pouring speed outperform
state-of-the-art works. We have also evaluated the proposed self-supervised
generalization approach using unaccustomed containers that are far different
from the ones in the training set. The self-supervised generalization reduces
the pouring error of the unaccustomed containers to the desired accuracy level.
- Abstract(参考訳): 注ぐ作業は、人間の日常生活で最も一般的に実行される作業の一つであり、注ぐ材料の種類や源の形状、容器の受け取りなど、複数の要因によって精度が影響を受ける。
そこで本研究では,制御されていない実験から注水ダイナミクス,注水動作,成果を学習し,正確な注水を行うセルフ教師付き学習手法を提案する。
学習された注水モデルは、不慣れな注水カップの使用など、異なる条件下での自己監督練習によって一般化される。
提案手法をまず,トレーニングセットから1つのコンテナと,新しいが類似した4つのコンテナを用いて評価した。
提案手法は、通常の人間よりも5杯すべてに類似した注水速度で注水精度を向上した。
精度と注ぐスピードは、最先端の作業よりも優れています。
また,訓練セットのものとは大きく異なる非適応コンテナを用いた自己教師あり一般化手法についても評価した。
自己監督的な一般化は、不慣れな容器の注ぐ誤差を所望の精度レベルに減少させる。
関連論文リスト
- Efficient Transferability Assessment for Selection of Pre-trained Detectors [63.21514888618542]
本稿では,事前学習対象検出器の効率的な伝達性評価について検討する。
我々は、事前訓練された検出器の大規模で多様な動物園を含む検出器転送性ベンチマークを構築した。
実験により,本手法は伝達性の評価において,他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-14T14:23:23Z) - Self-Supervised Learning for Covariance Estimation [3.04585143845864]
推論時に局所的に適用されるニューラルネットワークをグローバルに学習することを提案する。
アーキテクチャは、一般的な注目メカニズムに基づいている。
基礎モデルとして事前訓練し、レーダーやハイパースペクトル画像の適応目標検出など、様々な下流タスクに再利用することができる。
論文 参考訳(メタデータ) (2024-03-13T16:16:20Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Stochastic Vision Transformers with Wasserstein Distance-Aware Attention [8.407731308079025]
自己教師付き学習は、限られたラベル付きデータから知識を得るための最も有望なアプローチの1つである。
我々は、不確実性と距離認識を自己教師付き学習パイプラインに統合する新しいビジョントランスフォーマーを導入する。
提案手法は,多種多様なデータセットを対象とした多種多様な実験において,自己教師付きベースラインを超える精度とキャリブレーションを実現する。
論文 参考訳(メタデータ) (2023-11-30T15:53:37Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - A3T: Accuracy Aware Adversarial Training [22.42867682734154]
誤分類標本から敵検体を生成する現在の慣行に関連する過度適合の原因の1つを同定する。
提案手法は,最先端の対人訓練手法に匹敵する堅牢性を保ちながら,より優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-11-29T15:56:43Z) - Towards the Generalization of Contrastive Self-Supervised Learning [11.889992921445849]
本稿では, 自己教師付き事前学習モデルが下流タスクにどのように一般化するかを理論的に説明する。
さらに,SimCLR と Barlow Twins についても検討する。
論文 参考訳(メタデータ) (2021-11-01T07:39:38Z) - Unbiased Gradient Estimation with Balanced Assignments for Mixtures of
Experts [32.43213645631101]
大規模な専門家モデルの混合を効率的に訓練するには、バッチ内のデータポイントを異なる専門家に割り当てる必要があり、それぞれが限られた能力を持つ。
最近提案された代入手順には確率論的解釈が欠如しており、訓練に偏りのある推定器が用いられている。
提案手法は,専門家の能力を超えるデータポイントをスキップする手法と,完全にバランスの取れた割り当てをサンプリングする手法である。
論文 参考訳(メタデータ) (2021-09-24T09:02:12Z) - Early Exiting with Ensemble Internal Classifiers [57.80488632985445]
早期退社はNLPコミュニティで注目を集めている。
本稿では,過去の全ての内部分類器の予測から正しいラベルを推測する投票方式を提案する。
様々なNLPタスクに対する実験結果から,提案した目的関数と投票に基づく戦略により,より精度の高いトレードオフが達成できることが示唆された。
論文 参考訳(メタデータ) (2021-05-28T12:54:11Z) - How Well Do Self-Supervised Models Transfer? [92.16372657233394]
我々は、40の下流タスクにおいて、トップ13の自己教師型モデルの転送性能を評価する。
ImageNet Top-1の精度は、マルチショット認識への転送と非常に相関している。
全体としては、単一の自己監督的手法が支配的ではなく、普遍的な事前訓練がまだ未解決であることを示唆している。
論文 参考訳(メタデータ) (2020-11-26T16:38:39Z) - Adversarial Robustness: From Self-Supervised Pre-Training to Fine-Tuning [134.15174177472807]
対戦型トレーニングを自己超越に導入し,汎用的な頑健な事前訓練モデルを初めて提供する。
提案するフレームワークが大きなパフォーマンスマージンを達成できることを示すため,広範な実験を行う。
論文 参考訳(メタデータ) (2020-03-28T18:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。