論文の概要: Mixed Traffic Control and Coordination from Pixels
- arxiv url: http://arxiv.org/abs/2302.09167v4
- Date: Mon, 5 Feb 2024 18:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 07:06:23.225164
- Title: Mixed Traffic Control and Coordination from Pixels
- Title(参考訳): ピクセルからの混合交通制御と協調
- Authors: Michael Villarreal, Bibek Poudel, Jia Pan, Weizi Li
- Abstract要約: 交通制御の従来の手法は、現在の渋滞レベルを緩和する上で無駄であることが証明されている。
これにより、ロボット車両が強化学習(RL)を通して人間駆動車両を規制する交通制御が混在する。
本研究では,環境の正確な情報を用いて,画像観測を用いたロボット車両の競争性能を示す。
- 参考スコア(独自算出の注目度): 18.37701232116777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic congestion is a persistent problem in our society. Previous methods
for traffic control have proven futile in alleviating current congestion levels
leading researchers to explore ideas with robot vehicles given the increased
emergence of vehicles with different levels of autonomy on our roads. This
gives rise to mixed traffic control, where robot vehicles regulate human-driven
vehicles through reinforcement learning (RL). However, most existing studies
use precise observations that require domain expertise and hand engineering for
each road network's observation space. Additionally, precise observations use
global information, such as environment outflow, and local information, i.e.,
vehicle positions and velocities. Obtaining this information requires updating
existing road infrastructure with vast sensor environments and communication to
potentially unwilling human drivers. We consider image observations, a modality
that has not been extensively explored for mixed traffic control via RL, as the
alternative: 1) images do not require a complete re-imagination of the
observation space from environment to environment; 2) images are ubiquitous
through satellite imagery, in-car camera systems, and traffic monitoring
systems; and 3) images only require communication to equipment. In this work,
we show robot vehicles using image observations can achieve competitive
performance to using precise information on environments, including ring,
figure eight, intersection, merge, and bottleneck. In certain scenarios, our
approach even outperforms using precision observations, e.g., up to 8% increase
in average vehicle velocity in the merge environment, despite only using local
traffic information as opposed to global traffic information.
- Abstract(参考訳): 交通渋滞は社会の永続的な問題である。
交通制御の従来の方法は、現在の渋滞レベルを緩和する上で無駄であることが証明されており、道路上での自律性の異なる車両の出現が増えると、研究者はロボットによるアイデアを探求する。
これにより、ロボット車両が強化学習(RL)を通じて人間駆動車両を規制する交通制御が混在する。
しかし、既存の研究の多くは、各道路網の観測空間にドメインの専門知識と手作業を必要とする正確な観察を用いている。
さらに、正確な観測では、環境流出などのグローバル情報や、車両の位置や速度といったローカル情報を使用する。
この情報を得るには、既存の道路インフラを巨大なセンサー環境で更新し、潜在的に望ましくない人間ドライバーと通信する必要がある。
画像観察は、rlによる混合交通制御のために広範囲に検討されていないモダリティである。
1) 画像は,環境から環境への観察空間の完全な再想像を必要としない。
2)画像は,衛星画像,車載カメラシステム,交通監視システムを通じてユビキタスである。
3)画像は機器への通信のみを必要とする。
本研究では,画像観察を用いたロボット車両が,リング,図8,交差点,マージ,ボトルネックなどの環境に関する正確な情報を用いて,競合性能を実現することを示す。
例えば、グローバルトラフィック情報とは対照的に、ローカルなトラフィック情報のみを使用しているにも関わらず、マージ環境における平均車両速度を最大8%向上させるなどです。
関連論文リスト
- Traffic control using intelligent timing of traffic lights with reinforcement learning technique and real-time processing of surveillance camera images [0.0]
信号機の最適タイミングを判定し、複数のパラメータに従って適用する。
YOLOv9-Cモデルを用いた車両検出には深層学習法が用いられた。
イランの車の画像にトランスファーラーニングとモデルの再訓練を併用することで、モデルの精度が向上した。
論文 参考訳(メタデータ) (2024-05-22T00:04:32Z) - Real-Time Detection and Analysis of Vehicles and Pedestrians using Deep Learning [0.0]
現在の交通監視システムは、小さな物体や歩行者をリアルタイムで効果的に認識する上で大きな困難に直面している。
本研究は、車や人の正確なリアルタイム認識のための複雑な視覚入力を処理できる高度なディープラーニングフレームワークの作成と検証に重点を置いている。
YOLOv8 大型モデルは、特に歩行者認識において最も効果的で、精度と堅牢性が高いことが判明した。
論文 参考訳(メタデータ) (2024-04-11T18:42:14Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Turning Traffic Monitoring Cameras into Intelligent Sensors for Traffic
Density Estimation [9.096163152559054]
本稿では,4L特性の未校正交通監視カメラを用いて,交通密度を推定するためのフレームワークを提案する。
提案するフレームワークは,カメラキャリブレーションと車両検出という2つの主要コンポーネントで構成されている。
その結果, カメラキャリブレーションにおける平均絶対誤差 (MAE) は6m中0.2m未満であり, 各種条件下での車両検出精度は約90%であった。
論文 参考訳(メタデータ) (2021-10-29T15:39:06Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Unsupervised Vehicle Counting via Multiple Camera Domain Adaptation [9.730985797769764]
市民の生活の質と都市環境を改善するためには, 都市内の車両流のモニタリングが不可欠である。
画像のヒンジを大量の注釈付きデータにカウントする現在の技術は、新しいカメラがシステムに追加されるにつれて、都市規模へのスケーラビリティを損なう。
我々は,複数のカメラ領域を適応させてラベル付きデータが少ない画像に基づく車両密度推定器を設計するための新しい手法を提案し,議論する。
論文 参考訳(メタデータ) (2020-04-20T13:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。