論文の概要: Opportunistic Collaborative Planning with Large Vision Model Guided Control and Joint Query-Service Optimization
- arxiv url: http://arxiv.org/abs/2504.18057v1
- Date: Fri, 25 Apr 2025 04:07:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.636108
- Title: Opportunistic Collaborative Planning with Large Vision Model Guided Control and Joint Query-Service Optimization
- Title(参考訳): 大規模ビジョンモデルによる協調計画と共同クエリサービス最適化
- Authors: Jiayi Chen, Shuai Wang, Guoliang Li, Wei Xu, Guangxu Zhu, Derrick Wing Kwan Ng, Chengzhong Xu,
- Abstract要約: オープンなシナリオで自動運転車をナビゲートすることは、目に見えない物体を扱うのが難しいため、課題である。
既存のソリューションは、一般化に苦しむ小さなモデルか、リソース集約的な大きなモデルに依存している。
本稿では,効率的なローカルモデルと強力なクラウドモデルをシームレスに統合するオポチュニティ協調計画(OCP)を提案する。
- 参考スコア(独自算出の注目度): 74.92515821144484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Navigating autonomous vehicles in open scenarios is a challenge due to the difficulties in handling unseen objects. Existing solutions either rely on small models that struggle with generalization or large models that are resource-intensive. While collaboration between the two offers a promising solution, the key challenge is deciding when and how to engage the large model. To address this issue, this paper proposes opportunistic collaborative planning (OCP), which seamlessly integrates efficient local models with powerful cloud models through two key innovations. First, we propose large vision model guided model predictive control (LVM-MPC), which leverages the cloud for LVM perception and decision making. The cloud output serves as a global guidance for a local MPC, thereby forming a closed-loop perception-to-control system. Second, to determine the best timing for large model query and service, we propose collaboration timing optimization (CTO), including object detection confidence thresholding (ODCT) and cloud forward simulation (CFS), to decide when to seek cloud assistance and when to offer cloud service. Extensive experiments show that the proposed OCP outperforms existing methods in terms of both navigation time and success rate.
- Abstract(参考訳): オープンなシナリオで自動運転車をナビゲートすることは、目に見えない物体を扱うのが難しいため、課題である。
既存のソリューションは、一般化に苦しむ小さなモデルか、リソース集約的な大きなモデルに依存している。
両者のコラボレーションは有望なソリューションを提供するが、重要な課題は、いつ、どのように大きなモデルを関与するかを決めることだ。
この問題に対処するために,2つの重要なイノベーションを通じて,効率的なローカルモデルと強力なクラウドモデルをシームレスに統合するオポチュニティ協調計画(OCP)を提案する。
まず,LVMの認識と意思決定にクラウドを利用する大規模視覚モデル誘導モデル予測制御(LVM-MPC)を提案する。
クラウド出力はローカルMPCのグローバルガイダンスとして機能し、クローズドループ認識制御システムを形成する。
第2に,大規模モデルクエリとサービスの最適なタイミングを決定するために,オブジェクト検出信頼度しきい値(ODCT)とクラウドフォワードシミュレーション(CFS)を含む協調タイミング最適化(CTO)を提案し,クラウドアシストとクラウドサービスの提供時期を決定する。
大規模な実験により,提案したOCPは航法時間と成功率の両方で既存手法より優れていることが示された。
関連論文リスト
- EfficientLLaVA:Generalizable Auto-Pruning for Large Vision-language Models [64.18350535770357]
マルチモーダル推論の効率を高めるために,大規模視覚言語モデルの自動プルーニング手法を提案する。
提案手法では,所望のプルーニングポリシーを探索するために,少数のサンプルのみを活用する。
視覚的質問応答のためのScienceQA, Vizwiz, MM-vet, LLaVA-Benchデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-19T16:07:04Z) - CE-CoLLM: Efficient and Adaptive Large Language Models Through Cloud-Edge Collaboration [1.6021932740447968]
大規模言語モデル(LLM)は、エンドユーザに人間のような知性を提供することで、驚くべき成功を収めた。
LLMは高い計算資源を必要としており、様々な性能目標を満たすためにそれらをデプロイすることは困難である。
CE-CoLLMは,エッジのエンドユーザに対して,効率的かつ適応的なLLM推論をサポートする,新しいクラウドエッジコラボレーションフレームワークである。
論文 参考訳(メタデータ) (2024-11-05T06:00:27Z) - Dual-Model Distillation for Efficient Action Classification with Hybrid Edge-Cloud Solution [1.8029479474051309]
我々は、より大規模で正確なクラウドベースモデルに必要に応じて遅延しながら、より小さなモデルのローカル処理効率を活用するハイブリッドエッジクラウドソリューションを設計する。
具体的には、エッジモデルの出力が不確かである場合に予測可能な軽量スイッチャーモデルをトレーニングするための、新しい教師なしデータ生成手法であるDual-Model Distillation(DMD)を提案する。
動作分類タスクの実験結果から,我々のフレームワークは計算オーバーヘッドを少なくするだけでなく,大規模モデルのみを使用する場合と比較して精度も向上することが示された。
論文 参考訳(メタデータ) (2024-10-16T02:06:27Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - DC-CCL: Device-Cloud Collaborative Controlled Learning for Large Vision
Models [43.41875046295657]
我々は,DC-CCLと呼ばれるデバイスクラウド協調制御学習フレームワークを提案する。
DC-CCLは、ベースモデルを2つのサブモデルに分割する。ひとつはクラウド側サンプルから学習するための大きなサブモデル、もうひとつはデバイス側サンプルから学習し、デバイス-クラウド知識融合を実行するための小さなサブモデルである。
論文 参考訳(メタデータ) (2023-03-18T08:35:12Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z) - Device-Cloud Collaborative Learning for Recommendation [50.01289274123047]
集中型クラウドモデルにより「数千人のモデルを持つ何千人もの人」を効率的に実現する新しいMetaPatch学習手法をデバイス側で提案します。
数十億の更新されたパーソナライズされたデバイスモデルにより、集中型クラウドモデルを更新する"モデルオーバーモデル"蒸留アルゴリズム、すなわちMoMoDistillを提案する。
論文 参考訳(メタデータ) (2021-04-14T05:06:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。