論文の概要: CLIP-RLDrive: Human-Aligned Autonomous Driving via CLIP-Based Reward Shaping in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2412.16201v1
- Date: Tue, 17 Dec 2024 00:12:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:00:06.831853
- Title: CLIP-RLDrive: Human-Aligned Autonomous Driving via CLIP-Based Reward Shaping in Reinforcement Learning
- Title(参考訳): CLIP-RLDrive:強化学習におけるCLIPベースのリワードシェイピングによる人間対応自動運転
- Authors: Erfan Doroudian, Hamid Taghavifar,
- Abstract要約: 都市部における自動運転車(AV)の意思決定を改善するための新しい強化学習(RL)フレームワークであるCLIP-RLDriveを提案する。
この目標を達成するために、AVの判断は、Contrastive Language-Image Pretraining (CLIP)ベースの報酬形成を通じて、人間のような嗜好と整合する。
- 参考スコア(独自算出の注目度): 0.8287206589886881
- License:
- Abstract: This paper presents CLIP-RLDrive, a new reinforcement learning (RL)-based framework for improving the decision-making of autonomous vehicles (AVs) in complex urban driving scenarios, particularly in unsignalized intersections. To achieve this goal, the decisions for AVs are aligned with human-like preferences through Contrastive Language-Image Pretraining (CLIP)-based reward shaping. One of the primary difficulties in RL scheme is designing a suitable reward model, which can often be challenging to achieve manually due to the complexity of the interactions and the driving scenarios. To deal with this issue, this paper leverages Vision-Language Models (VLMs), particularly CLIP, to build an additional reward model based on visual and textual cues.
- Abstract(参考訳): 本稿では,都市交通の複雑なシナリオ,特に信号のない交差点において,自動運転車(AV)の意思決定を改善するための新しい強化学習(RL)フレームワークであるCLIP-RLDriveを提案する。
この目標を達成するために、AVの判断は、Contrastive Language-Image Pretraining (CLIP)ベースの報酬形成を通じて、人間のような嗜好と整合する。
RLスキームの最大の難しさの1つは適切な報酬モデルの設計である。
この問題に対処するために,視覚言語モデル(VLM),特にCLIPを活用し,視覚とテキストに基づく報酬モデルを構築する。
関連論文リスト
- OWLed: Outlier-weighed Layerwise Pruning for Efficient Autonomous Driving Framework [3.8320050452121692]
本稿では,効率的な自律運転フレームワーク Outlier-Weighed Layerwise Pruning であるOWLedを紹介する。
提案手法は,外乱特性の分布に基づいて,異なる層に対して一様でない空間比を割り当てる。
圧縮モデルが自律運転タスクに適合するようにするため、運転環境データをキャリブレーションとプルーニングの両方に組み込む。
論文 参考訳(メタデータ) (2024-11-12T10:55:30Z) - Hierarchical and Decoupled BEV Perception Learning Framework for Autonomous Driving [52.808273563372126]
本稿では,基本認識モジュールとユーザフレンドリなグラフィカルインタフェースのライブラリの提供を目的とした,新しい階層的BEV知覚パラダイムを提案する。
我々は,大規模公開データセットと合理化開発プロセスを効果的に活用するために,Pretrain-Finetune戦略を実行している。
また、マルチモジュールラーニング(MML)アプローチを提案し、複数のモデルの相乗的かつ反復的な訓練により性能を向上させる。
論文 参考訳(メタデータ) (2024-07-17T11:17:20Z) - Adaptive and Parallel Split Federated Learning in Vehicular Edge Computing [6.004901615052089]
車両エッジインテリジェンス(VEI)は、将来のインテリジェントトランスポートシステムを実現するための有望なパラダイムである。
フェデレートラーニング(Federated Learning, FL)は、コラボレーティブモデルトレーニングとアグリゲーションを促進する基礎技術のひとつである。
ASFV(Adaptive Split Federated Learning scheme for Vehicular Edge Computing) を開発した。
論文 参考訳(メタデータ) (2024-05-29T02:34:38Z) - LORD: Large Models based Opposite Reward Design for Autonomous Driving [11.717821043996352]
LORDは、望ましくない言語目標を通じて、対向的な報酬設計に基づく新しい大モデルである。
提案手法は,大規模な事前学習モデルのパワーを有効活用し,安全で高機能な自動運転を実現するための有効性を示す。
論文 参考訳(メタデータ) (2024-03-27T19:30:06Z) - SALMON: Self-Alignment with Instructable Reward Models [80.83323636730341]
本稿では,基本言語モデルと人間の監督を最小限に整合させる新しいアプローチ,すなわちSALMONを提案する。
私たちはDromedary-2という名のAIアシスタントを開発しており、コンテキスト内学習には6つの例と31の人間定義原則しかありません。
論文 参考訳(メタデータ) (2023-10-09T17:56:53Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Vehicular Cooperative Perception Through Action Branching and Federated
Reinforcement Learning [101.64598586454571]
強化学習に基づく車両関連、リソースブロック(RB)割り当て、協調認識メッセージ(CPM)のコンテンツ選択を可能にする新しいフレームワークが提案されている。
車両全体のトレーニングプロセスをスピードアップするために、フェデレーションRLアプローチが導入されます。
その結果、フェデレーションRLはトレーニングプロセスを改善し、非フェデレーションアプローチと同じ時間内により良いポリシーを達成できることが示された。
論文 参考訳(メタデータ) (2020-12-07T02:09:15Z) - A Software Architecture for Autonomous Vehicles: Team LRM-B Entry in the
First CARLA Autonomous Driving Challenge [49.976633450740145]
本稿では,シミュレーション都市環境における自律走行車両のナビゲーション設計について述べる。
我々のアーキテクチャは、CARLA Autonomous Driving Challengeの要件を満たすために作られました。
論文 参考訳(メタデータ) (2020-10-23T18:07:48Z) - Decision-making at Unsignalized Intersection for Autonomous Vehicles:
Left-turn Maneuver with Deep Reinforcement Learning [17.715274169051494]
本研究は、自動運転車の信号なし交差点における深層強化学習に基づく左旋回意思決定フレームワークを提案する。
提案した意思決定戦略は、衝突率を効果的に低減し、輸送効率を向上させることができる。
この研究は、構築された左旋回制御構造がリアルタイムに適用可能な大きな可能性を持っていることも明らかにした。
論文 参考訳(メタデータ) (2020-08-14T22:44:26Z) - Learning hierarchical behavior and motion planning for autonomous
driving [32.78069835190924]
本稿では,階層的行動計画(HBMP)を導入し,学習ベースソリューションの動作を明示的にモデル化する。
我々は、古典的なサンプリングベースのモーションプランナを統合することで、HBMP問題を変換する。
さらに,シミュレーションプラットフォームと実環境をまたいだ入力感覚データの共有可能な表現を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。