論文の概要: A Compositional Paradigm for Foundation Models: Towards Smarter Robotic Agents
- arxiv url: http://arxiv.org/abs/2510.18608v1
- Date: Tue, 21 Oct 2025 13:06:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.537851
- Title: A Compositional Paradigm for Foundation Models: Towards Smarter Robotic Agents
- Title(参考訳): 基礎モデルのための構成パラダイム:よりスマートなロボットエージェントを目指して
- Authors: Luigi Quarantiello, Elia Piccoli, Jack Bell, Malio Li, Giacomo Carfì, Eric Nuertey Coleman, Gerlando Gramaglia, Lanpei Li, Mauro Madeddu, Irene Testa, Vincenzo Lomonaco,
- Abstract要約: ファンデーションモデルは大量のデータを処理でき、リッチな表現を抽出して開発することができる。
しかしながら、スクラッチからモデル全体をトレーニングすることなく、動的で現実的なシナリオに適応することにはまだ問題があります。
我々は、より柔軟で効率的でスマートなAIソリューションの開発を促進するために、継続的な学習と構成原則の適用を提案する。
- 参考スコア(独自算出の注目度): 3.5315128335063286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The birth of Foundation Models brought unprecedented results in a wide range of tasks, from language to vision, to robotic control. These models are able to process huge quantities of data, and can extract and develop rich representations, which can be employed across different domains and modalities. However, they still have issues in adapting to dynamic, real-world scenarios without retraining the entire model from scratch. In this work, we propose the application of Continual Learning and Compositionality principles to foster the development of more flexible, efficient and smart AI solutions.
- Abstract(参考訳): Foundation Modelsの誕生は、言語から視覚、ロボット制御まで幅広いタスクにおいて、前例のない結果をもたらした。
これらのモデルは膨大な量のデータを処理することができ、様々な領域やモダリティにまたがるリッチな表現を抽出し、開発することができる。
しかしながら、スクラッチからモデル全体をトレーニングすることなく、動的で現実的なシナリオに適応することにはまだ問題があります。
本研究では、より柔軟で効率的でスマートなAIソリューションの開発を促進するために、継続的な学習と構成原則の適用を提案する。
関連論文リスト
- Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。