論文の概要: Recursive Distillation for Open-Set Distributed Robot Localization
- arxiv url: http://arxiv.org/abs/2312.15897v1
- Date: Tue, 26 Dec 2023 06:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:58:18.217663
- Title: Recursive Distillation for Open-Set Distributed Robot Localization
- Title(参考訳): オープンセット分散ロボットローカライゼーションのための再帰蒸留
- Authors: Kenta Tsukahara, Kanji Tanaka
- Abstract要約: 本研究は,オープンワールド分散ロボットシステムのための新しいトレーニングスキームを導入する。
ロボット(学生)は、知らない場所で出会った他のロボット(教師)にガイダンスを求めることができる。
一般的な知識伝達方式とは異なり,本手法では教師モデルに最小限の仮定を導入する。
- 参考スコア(独自算出の注目度): 1.9580473532948401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A typical assumption in state-of-the-art self-localization models is that an
annotated training dataset is available for the target workspace. However, this
is not necessarily true when a robot travels around the general open world.
This work introduces a novel training scheme for open-world distributed robot
systems. In our scheme, a robot (``student") can ask the other robots it meets
at unfamiliar places (``teachers") for guidance. Specifically, a
pseudo-training dataset is reconstructed from the teacher model and then used
for continual learning of the student model under domain, class, and vocabulary
incremental setup. Unlike typical knowledge transfer schemes, our scheme
introduces only minimal assumptions on the teacher model, so that it can handle
various types of open-set teachers, including those uncooperative, untrainable
(e.g., image retrieval engines), or black-box teachers (i.e., data privacy). In
this paper, we investigate a ranking function as an instance of such generic
models, using a challenging data-free recursive distillation scenario, where a
student once trained can recursively join the next-generation open teacher set.
- Abstract(参考訳): 最先端の自己ローカライゼーションモデルにおける典型的な仮定は、ターゲットのワークスペースに注釈付きトレーニングデータセットが利用できるということである。
しかし、ロボットが一般のオープンワールドを旅するときは必ずしもそうではない。
本研究は,オープンワールド分散ロボットシステムのための新しいトレーニングスキームを導入する。
提案手法では,ロボット(「学生」)が不慣れな場所(「教師」)で出会った他のロボットに指導を求めることができる。
具体的には、教師モデルから擬似学習データセットを再構成し、ドメイン、クラス、語彙のインクリメンタル設定の下で生徒モデルの継続的な学習に使用する。
従来の知識伝達方式と異なり,教師モデルの仮定は最小限であり,非協力的,非訓練的(画像検索エンジンなど)な教師やブラックボックスの教師(データプライバシなど)など,さまざまなオープンセットの教師を扱える。
本稿では, 学生が学習したデータフリー再帰蒸留シナリオを用いて, 次世代のオープン教師セットに再帰的に参加できるような, 汎用モデルの事例としてのランキング関数について検討する。
関連論文リスト
- Robot Utility Models: General Policies for Zero-Shot Deployment in New Environments [26.66666135624716]
ゼロショットロボットポリシーのトレーニングとデプロイのためのフレームワークであるロボットユーティリティモデル(RUM)を提案する。
RUMは微調整なしで新しい環境に一般化できる。
キャビネットドアのオープン、引き出しのオープン、ナプキンのピックアップ、紙袋のピックアップ、転倒物の再配向の5つのユーティリティモデルを訓練する。
論文 参考訳(メタデータ) (2024-09-09T17:59:50Z) - Training Self-localization Models for Unseen Unfamiliar Places via Teacher-to-Student Data-Free Knowledge Transfer [1.474723404975345]
最先端の自己ローカライゼーションモデルにおける典型的な仮定は、アノテーション付きトレーニングデータセットがターゲットのワークスペースで利用できるということである。
本研究では,オープンワールド分散ロボットシステムのための新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-03-13T03:20:47Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Hopfield model with planted patterns: a teacher-student self-supervised
learning model [0.0]
本稿では,Boltzmann 機械を用いて教師が指導する自己教師型学習問題を定式化できることを示す。
位相図をトレーニングセットのサイズで解析することにより,学習性能を解析する。
論文 参考訳(メタデータ) (2023-04-26T17:50:52Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - Distilling Knowledge from Self-Supervised Teacher by Embedding Graph
Alignment [52.704331909850026]
我々は、自己指導型事前学習モデルから他の学生ネットワークへ知識を伝達するための新しい知識蒸留フレームワークを定式化した。
自己教師型学習におけるインスタンス識別の精神に触発され,特徴埋め込み空間におけるグラフ定式化によるインスタンスとインスタンスの関係をモデル化する。
蒸留方式は, 学生ネットワーク上での表現学習を促進するために, 自己指導型知識の伝達に柔軟に適用できる。
論文 参考訳(メタデータ) (2022-11-23T19:27:48Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Generative Adversarial Simulator [2.3986080077861787]
強化学習における知識蒸留へのシミュレータフリーアプローチを提案する。
重要な課題は、学生に与えられた行動に対応する事例の多様さを学習させることである。
これは教師と学生の政策の間のシミュレータフリーな知識蒸留の初めての実演である。
論文 参考訳(メタデータ) (2020-11-23T15:31:12Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。