論文の概要: GSL-PCD: Improving Generalist-Specialist Learning with Point Cloud Feature-based Task Partitioning
- arxiv url: http://arxiv.org/abs/2411.06733v1
- Date: Mon, 11 Nov 2024 06:03:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:07:32.665247
- Title: GSL-PCD: Improving Generalist-Specialist Learning with Point Cloud Feature-based Task Partitioning
- Title(参考訳): GSL-PCD: Point Cloud Feature-based Task Partitioningによるジェネリスト専門学習の改善
- Authors: Xiu Yuan,
- Abstract要約: 我々は、ポイントクラウド特徴量に基づくタスク分割(GSL-PCD)を用いたジェネリスト-スペシャリスト学習を提案する。
当社のアプローチクラスタ環境は,オブジェクトポイントクラウドから抽出した特徴に基づいて変化しており,同じ専門家に類似したバリエーションを割り当てるために,バランスの取れたクラスタリングを使用している。
ManiSkillベンチマークによるロボット操作タスクの評価によると、クラウド機能ベースのパーティショニングはバニラパーティショニングを9.4%上回り、専門家の数は一定であり、計算とサンプルの要求を50%減らして同等のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Generalization in Deep Reinforcement Learning (DRL) across unseen environment variations often requires training over a diverse set of scenarios. Many existing DRL algorithms struggle with efficiency when handling numerous variations. The Generalist-Specialist Learning (GSL) framework addresses this by first training a generalist model on all variations, then creating specialists from the generalist's weights, each focusing on a subset of variations. The generalist then refines its learning with assistance from the specialists. However, random task partitioning in GSL can impede performance by assigning vastly different variations to the same specialist, often resulting in each specialist focusing on only one variation, which raises computational costs. To improve this, we propose Generalist-Specialist Learning with Point Cloud Feature-based Task Partitioning (GSL-PCD). Our approach clusters environment variations based on features extracted from object point clouds and uses balanced clustering with a greedy algorithm to assign similar variations to the same specialist. Evaluations on robotic manipulation tasks from the ManiSkill benchmark demonstrate that point cloud feature-based partitioning outperforms vanilla partitioning by 9.4%, with a fixed number of specialists, and reduces computational and sample requirements by 50% to achieve comparable performance.
- Abstract(参考訳): 目に見えない環境にまたがる深層強化学習(DRL)の一般化は、様々なシナリオのトレーニングを必要とすることが多い。
多くの既存のDRLアルゴリズムは、多くのバリエーションを扱う際に効率に苦しむ。
ジェネラリスト-スペシャリスト学習(GSL)フレームワークは、まずすべてのバリエーションについてジェネラリストモデルを訓練し、次にジェネラリストの重みからスペシャリストを作成し、それぞれバリエーションのサブセットに焦点を当てることで、この問題に対処する。
ジェネラリストはその後、専門家の助けを借りて学習を洗練させる。
しかし、GSLにおけるランダムなタスク分割は、非常に異なるバリエーションを同じ専門家に割り当てることによって性能を損なう可能性がある。
そこで我々は,GSL-PCD(Generalist-Specialist Learning with Point Cloud Feature-based Task Partitioning)を提案する。
当社のアプローチでは,オブジェクトポイントクラウドから抽出した特徴に基づいたクラスタ環境のバラツキを,greedyアルゴリズムによるバランスの取れたクラスタリングを用いて,同一の専門家に類似したバリエーションを割り当てる。
ManiSkillベンチマークによるロボット操作タスクの評価によると、クラウド機能ベースのパーティショニングはバニラパーティショニングを9.4%上回り、専門家の数は一定であり、計算とサンプルの要求を50%減らして同等のパフォーマンスを達成した。
関連論文リスト
- Task-Adaptive Pretrained Language Models via Clustered-Importance Sampling [21.762562172089236]
代わりに、大規模なジェネラリストのトレーニングセットからスペシャリストモデルを構築します。
我々は、限られたドメイン固有データからのガイダンスにより、ジェネリストデータのトレーニング分布を調整する。
スケーラブルで、事前トレーニングと継続事前トレーニングに適しており、マルチタスク設定でうまく機能する。
論文 参考訳(メタデータ) (2024-09-30T20:49:54Z) - Pruning as a Domain-specific LLM Extractor [44.81262364608468]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な習熟度を示した。
LLMのサイズを減らすため, モデル刈り込み技術の研究はほとんど行われていない。
この研究は、LLM上のドメイン固有圧縮のための革新的な非構造的デュアルプルーニング手法であるD-Prunerを導入する。
論文 参考訳(メタデータ) (2024-05-10T07:05:02Z) - Open Domain Generalization with a Single Network by Regularization
Exploiting Pre-trained Features [37.518025833882334]
Open Domain Generalization(ODG)は、分散シフトとカテゴリシフトを扱うため、困難なタスクである。
これまでの作業では複数のソース特化ネットワークを使用しており、コストが高い。
本稿では,単一ネットワークのみを用いてODGを処理できる手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:22:10Z) - Specialist or Generalist? Instruction Tuning for Specific NLP Tasks [58.422495509760154]
包括的汎用的チューニングを取り入れることで,スペシャリストモデルの構築に寄与するかどうかを検討する。
実験では,異なる範囲で4つの目標タスクを評価した。
この効果は、タスク固有のトレーニングデータの量が限られている場合に特に顕著である。
論文 参考訳(メタデータ) (2023-10-23T19:46:48Z) - Adaptive Gating in Mixture-of-Experts based Language Models [7.936874532105228]
モデルスケーリングのための有望なソリューションとして,Sparsely activated mixed-of-experts (MoE) が登場した。
本稿では,様々な専門家がトークンを処理できるフレキシブルなトレーニング戦略であるMoEで適応ゲーティングを導入する。
論文 参考訳(メタデータ) (2023-10-11T04:30:18Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Balancing Generalization and Specialization in Zero-shot Learning [80.7530875747194]
両機能を利用するために,BGSNetと呼ばれる共通化と能力のバランスの取れたエンドツーエンドネットワークを提案する。
新たな自己調整型多様性損失は、冗長性の低減と多様性の向上により、BSNetを最適化するように設計されている。
4つのベンチマークデータセットの実験は、我々のモデルの有効性を示している。
論文 参考訳(メタデータ) (2022-01-06T08:04:27Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。