論文の概要: Online Foundation Model Selection in Robotics
- arxiv url: http://arxiv.org/abs/2402.08570v1
- Date: Tue, 13 Feb 2024 16:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 14:40:27.968817
- Title: Online Foundation Model Selection in Robotics
- Title(参考訳): ロボットのオンラインモデル選択
- Authors: Po-han Li, Oyku Selin Toprak, Aditya Narayanan, Ufuk Topcu, Sandeep
Chinchali
- Abstract要約: ファンデーションモデルはコンピュータビジョンと自然言語処理に長けた後、最近ロボット工学に発展した。
効果的で費用がかかるクローズドソースモデルと、無料だがあまりパワフルでないオープンソース代替品のどちらを選ぶかを決めると、どちらのユーザーも問題に直面します。
本稿では,オープンソースのエンコーダと,このコンテキストを処理するオンライン学習アルゴリズムを組み合わせた新しいソリューションを提案する。
- 参考スコア(独自算出の注目度): 18.65707136264266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models have recently expanded into robotics after excelling in
computer vision and natural language processing. The models are accessible in
two ways: open-source or paid, closed-source options. Users with access to both
face a problem when deciding between effective yet costly closed-source models
and free but less powerful open-source alternatives. We call it the model
selection problem. Existing supervised-learning methods are impractical due to
the high cost of collecting extensive training data from closed-source models.
Hence, we focus on the online learning setting where algorithms learn while
collecting data, eliminating the need for large pre-collected datasets. We thus
formulate a user-centric online model selection problem and propose a novel
solution that combines an open-source encoder to output context and an online
learning algorithm that processes this context. The encoder distills vast data
distributions into low-dimensional features, i.e., the context, without
additional training. The online learning algorithm aims to maximize a composite
reward that includes model performance, execution time, and costs based on the
context extracted from the data. It results in an improved trade-off between
selecting open-source and closed-source models compared to non-contextual
methods, as validated by our theoretical analysis. Experiments across
language-based robotic tasks such as Waymo Open Dataset, ALFRED, and Open
X-Embodiment demonstrate real-world applications of the solution. The results
show that the solution significantly improves the task success rate by up to
14%.
- Abstract(参考訳): ファンデーションモデルはコンピュータビジョンと自然言語処理に長けた後、最近ロボット工学に発展した。
モデルは、オープンソースまたは有料のクローズドソースオプションの2つの方法で利用できる。
効果的だが費用がかかるクローズドソースモデルと、無料だがあまり強力でないオープンソース代替品のどちらが問題になる。
これをモデル選択問題と呼びます
既存の教師付き学習手法は、クローズドソースモデルから広範なトレーニングデータを収集するコストが高いため、実用的ではない。
そこで本研究では,データ収集中にアルゴリズムが学習するオンライン学習環境に着目し,大規模なデータセットの必要性を解消した。
そこで、ユーザ中心のオンラインモデル選択問題を定式化し、オープンソースエンコーダと、このコンテキストを処理するオンライン学習アルゴリズムを組み合わせた新しいソリューションを提案する。
エンコーダは、膨大なデータ分布を低次元の特徴、すなわち、追加の訓練なしに蒸留する。
オンライン学習アルゴリズムは、データから抽出されたコンテキストに基づいて、モデルの性能、実行時間、コストを含む複合報酬を最大化する。
その結果,オープンソースモデルとクローズドソースモデルとのトレードオフが,理論的解析によって検証された非コンテキスト手法と比較して改善された。
waymo open dataset、alfred、open x-embodimentといった言語ベースのロボットタスクでの実験は、ソリューションの実世界の応用を示している。
その結果、ソリューションはタスク成功率を最大14%向上させることがわかった。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Unlearnable Algorithms for In-context Learning [36.895152458323764]
本稿では,事前訓練された大規模言語モデルのタスク適応フェーズに対する効率的なアンラーニング手法に着目した。
タスク適応のための文脈内学習を行うLLMの能力は、タスク適応トレーニングデータの効率的なアンラーニングを可能にする。
本稿では,様々な推論コストを考慮に入れた非学習コストの包括的尺度を提案する。
論文 参考訳(メタデータ) (2024-02-01T16:43:04Z) - Equitable-FL: Federated Learning with Sparsity for Resource-Constrained
Environment [10.980548731600116]
本稿では,資源制約環境下でうまく機能する疎結合型学習法を提案する。
私たちの目標は、ノードの空間、コンピューティング、帯域幅の不足に関わらず、学習を可能にすることです。
畳み込みニューラルネットワークのトレーニング実験の結果, 等価FLの有効性が検証された。
論文 参考訳(メタデータ) (2023-09-02T08:40:17Z) - Anytime Model Selection in Linear Bandits [61.97047189786905]
ALEXPは,その後悔に対するM$への依存を指数関数的に改善した。
提案手法は,オンライン学習と高次元統計学の新たな関連性を確立するために,ラッソの時間的一様解析を利用する。
論文 参考訳(メタデータ) (2023-07-24T15:44:30Z) - Distilling from Similar Tasks for Transfer Learning on a Budget [38.998980344852846]
転送学習は、ラベルの少ないトレーニングに有効なソリューションであるが、大きなベースモデルの計算的にコストのかかる微調整を犠牲にすることがしばしばある。
本稿では,半教師付きクロスドメイン蒸留による計算と精度のトレードオフを軽減することを提案する。
我々の手法は、ソースデータにアクセスする必要はなく、単にソースモデルの機能や擬似ラベルが必要なだけである。
論文 参考訳(メタデータ) (2023-04-24T17:59:01Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Deep Learning with Multiple Data Set: A Weighted Goal Programming
Approach [2.7393821783237184]
大規模データ分析は、我々の社会でデータが増大するにつれて、指数的な速度で成長している。
ディープラーニングモデルはたくさんのリソースを必要とし、分散トレーニングが必要です。
本稿では,分散学習のためのマルチ基準アプローチを提案する。
論文 参考訳(メタデータ) (2021-11-27T07:10:25Z) - You Only Compress Once: Optimal Data Compression for Estimating Linear
Models [1.2845031126178592]
線形モデルを用いる多くの工学システムは分散システムおよび専門家構成によって計算効率を達成します。
条件付き十分な統計は、統一されたデータ圧縮と推定戦略である。
論文 参考訳(メタデータ) (2021-02-22T19:00:18Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。