論文の概要: Online Self-Supervised Learning for Object Picking: Detecting Optimum
Grasping Position using a Metric Learning Approach
- arxiv url: http://arxiv.org/abs/2003.03717v1
- Date: Sun, 8 Mar 2020 04:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:45:19.723579
- Title: Online Self-Supervised Learning for Object Picking: Detecting Optimum
Grasping Position using a Metric Learning Approach
- Title(参考訳): オブジェクトピッキングのためのオンライン自己監督学習:メトリック学習アプローチによる最適グラスピング位置の検出
- Authors: Kanata Suzuki, Yasuto Yokota, Yuzi Kanazawa, Tomoyoshi Takebayashi
- Abstract要約: 個々の対象物の最適な把握位置は、その把握スコアから決定される。
提案するオンライン自己教師型学習手法では,2つのディープニューラルネットワークを用いる。
- 参考スコア(独自算出の注目度): 0.757024681220677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning methods are attractive candidates for automatic
object picking. However, the trial samples lack the complete ground truth
because the observable parts of the agent are limited. That is, the information
contained in the trial samples is often insufficient to learn the specific
grasping position of each object. Consequently, the training falls into a local
solution, and the grasp positions learned by the robot are independent of the
state of the object. In this study, the optimal grasping position of an
individual object is determined from the grasping score, defined as the
distance in the feature space obtained using metric learning. The closeness of
the solution to the pre-designed optimal grasping position was evaluated in
trials. The proposed method incorporates two types of feedback control: one
feedback enlarges the grasping score when the grasping position approaches the
optimum; the other reduces the negative feedback of the potential grasping
positions among the grasping candidates. The proposed online self-supervised
learning method employs two deep neural networks. : SSD that detects the
grasping position of an object, and Siamese networks (SNs) that evaluate the
trial sample using the similarity of two input data in the feature space. Our
method embeds the relation of each grasping position as feature vectors by
training the trial samples and a few pre-samples indicating the optimum
grasping position. By incorporating the grasping score based on the feature
space of SNs into the SSD training process, the method preferentially trains
the optimum grasping position. In the experiment, the proposed method achieved
a higher success rate than the baseline method using simple teaching signals.
And the grasping scores in the feature space of the SNs accurately represented
the grasping positions of the objects.
- Abstract(参考訳): 自己教師付き学習法は、自動オブジェクト選択の魅力的な候補である。
しかし、試薬の観察可能な部分は限られているため、試験サンプルは完全な根拠の真実を欠いている。
すなわち、試用試料に含まれる情報は、しばしば各対象の特定の把握位置を知るために不十分である。
これにより、訓練は局所解に落ち、ロボットが学習した把持位置は対象の状態とは独立している。
本研究では、メトリック学習により得られた特徴空間内の距離として定義される把持スコアから、個々の対象の最適把持位置を決定する。
事前設計した最適把握位置に対する溶液の密接度を試験で評価した。
提案手法では, 把持位置が最適に近づくと, 1つのフィードバックが把持スコアを拡大し, もう1つのフィードバックが把持候補間の有意把持位置の負のフィードバックを減少させる, という2つのフィードバック制御が組み込まれている。
2つのディープニューラルネットワークを用いたオンライン自己教師付き学習手法を提案する。
対象物の把持位置を検出するssdと、特徴空間における2つの入力データの類似性を用いて試用サンプルを評価するシャムネットワーク(sns)。
提案手法は, 実験サンプルを訓練することにより, 特徴ベクトルとしての把握位置の関係と, 最適な把握位置を示すいくつかの事前サンプルを埋め込む。
SNの特徴空間に基づく把握スコアをSSDトレーニングプロセスに組み込むことにより、最適な把握位置を優先的に訓練する。
提案手法は,簡単な指導信号を用いたベースライン法よりも高い成功率を達成した。
また、SNの特徴空間における把握スコアは、対象物の把握位置を正確に表している。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Referee-Meta-Learning for Fast Adaptation of Locational Fairness [26.770426062329165]
本稿では,深層ニューラルネットワークのメタトレーニングとメタテストを行うために,位置的メタ参照(Meta-Ref)を提案する。
また,Meta-Refは全体の予測品質を同等に保ちながら,位置の公平性を向上できることを示す。
論文 参考訳(メタデータ) (2024-02-20T21:09:04Z) - Optimal Parameter and Neuron Pruning for Out-of-Distribution Detection [36.4610463573214]
我々は,textbfOptimal textbfParameter と textbfNeuron textbfPruning (textbfOPNP) アプローチを提案し,OODサンプルを検出する。
我々の提案は、トレーニングフリーで、他のポストホックメソッドと互換性があり、すべてのトレーニングデータから情報を探索する。
論文 参考訳(メタデータ) (2024-02-04T07:31:06Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - VL4Pose: Active Learning Through Out-Of-Distribution Detection For Pose
Estimation [79.50280069412847]
VL4Poseは、分布外検出によるアクティブな学習のための第一原理的アプローチである。
我々の解は、最大推定により訓練された単純なパラメトリックベイズネットワークを介してポーズをモデル化することを含む。
我々はMPII, LSP, ICVLの3つのデータセットに対して定性的かつ定量的な実験を行い, 人手ポーズ推定を行った。
論文 参考訳(メタデータ) (2022-10-12T09:03:55Z) - CheckSel: Efficient and Accurate Data-valuation Through Online
Checkpoint Selection [3.321404824316694]
本稿では,データアセスメントとサブセット選択の問題に対して,新しい2段階の解を提案する。
フェーズ1は、SGDライクなトレーニングアルゴリズムから代表チェックポイントを選択し、フェーズ2で使用して、近似トレーニングデータ値を推定する。
実験結果から,提案アルゴリズムは試験精度において,最近のベースライン法を最大30%上回る性能を示した。
論文 参考訳(メタデータ) (2022-03-14T02:06:52Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - SIMPLE: SIngle-network with Mimicking and Point Learning for Bottom-up
Human Pose Estimation [81.03485688525133]
Single-network with Mimicking and Point Learning for Bottom-up Human Pose Estimation (SIMPLE) を提案する。
具体的には、トレーニングプロセスにおいて、SIMPLEが高性能なトップダウンパイプラインからのポーズ知識を模倣できるようにする。
さらに、SIMPLEは人間検出とポーズ推定を統一的なポイントラーニングフレームワークとして定式化し、単一ネットワークで相互に補完する。
論文 参考訳(メタデータ) (2021-04-06T13:12:51Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。