論文の概要: Mixed Traffic Control and Coordination from Pixels
- arxiv url: http://arxiv.org/abs/2302.09167v3
- Date: Mon, 25 Sep 2023 21:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 20:54:56.688987
- Title: Mixed Traffic Control and Coordination from Pixels
- Title(参考訳): ピクセルからの混合交通制御と協調
- Authors: Michael Villarreal, Bibek Poudel, Jia Pan, Weizi Li
- Abstract要約: 画像観察を用いたロボット車両は、環境の正確な情報を用いて、同様の性能が得られることを示す。
特定のシナリオでは、精度の観察により、我々のアプローチはより優れています。
- 参考スコア(独自算出の注目度): 18.37701232116777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic congestion is a persistent problem in our society. Existing methods
for traffic control have proven futile in alleviating current congestion levels
leading researchers to explore ideas with robot vehicles given the increased
emergence of vehicles with different levels of autonomy on our roads. This
gives rise to mixed traffic control, where robot vehicles regulate human-driven
vehicles through reinforcement learning (RL). However, most existing studies
use precise observations that involve global information, such as environment
outflow, and local information, i.e., vehicle positions and velocities.
Obtaining this information requires updating existing road infrastructure with
vast sensor environments and communication to potentially unwilling human
drivers. We consider image observations as the alternative for mixed traffic
control via RL: 1) images are ubiquitous through satellite imagery, in-car
camera systems, and traffic monitoring systems; 2) images do not require a
complete re-imagination of the observation space from environment to
environment; and 3) images only require communication to equipment. In this
work, we show robot vehicles using image observations can achieve similar
performance to using precise information on environments, including ring,
figure eight, intersection, merge, and bottleneck. In certain scenarios, our
approach even outperforms using precision observations, e.g., up to 26%
increase in average vehicle velocity in the merge environment and a 6% increase
in outflow in the bottleneck environment, despite only using local traffic
information as opposed to global traffic information.
- Abstract(参考訳): 交通渋滞は社会の永続的な問題である。
既存の交通制御手法は、現在の渋滞レベルを緩和する上で無駄であることが証明されており、道路上での自律性の異なる車両の出現が増加するにつれて、研究者はロボットによるアイデアを探求するようになる。
これにより、ロボット車両が強化学習(RL)を通じて人間駆動車両を規制する交通制御が混在する。
しかし、既存の研究の多くは、環境流出や局所的な情報、すなわち車両の位置や速度などのグローバルな情報を含む正確な観測を用いている。
この情報を得るには、既存の道路インフラを巨大なセンサー環境で更新し、潜在的に望ましくない人間ドライバーと通信する必要がある。
画像観察をrlによる混合交通制御の代替として検討する。
1) 画像は,衛星画像,車載カメラシステム,交通監視システムを通じてユビキタスである。
2)画像は,環境から環境への観測空間の完全な再表示を必要としない。
3)画像は機器への通信のみを必要とする。
本研究では,画像観測を用いたロボット車両が,リング,フィギュア8,交差点,マージ,ボトルネックといった環境の正確な情報を用いて,同様の性能を実現することを示す。
あるシナリオでは、グローバルな交通情報とは対照的に、局所的な交通情報のみを使用しながら、マージ環境における平均車両速度が最大26%増加し、ボトルネック環境におけるアウトフローが6%上昇するなど、高精度な観測を用いて、アプローチがさらに優れています。
関連論文リスト
- Traffic control using intelligent timing of traffic lights with reinforcement learning technique and real-time processing of surveillance camera images [0.0]
信号機の最適タイミングを判定し、複数のパラメータに従って適用する。
YOLOv9-Cモデルを用いた車両検出には深層学習法が用いられた。
イランの車の画像にトランスファーラーニングとモデルの再訓練を併用することで、モデルの精度が向上した。
論文 参考訳(メタデータ) (2024-05-22T00:04:32Z) - Real-Time Detection and Analysis of Vehicles and Pedestrians using Deep Learning [0.0]
現在の交通監視システムは、小さな物体や歩行者をリアルタイムで効果的に認識する上で大きな困難に直面している。
本研究は、車や人の正確なリアルタイム認識のための複雑な視覚入力を処理できる高度なディープラーニングフレームワークの作成と検証に重点を置いている。
YOLOv8 大型モデルは、特に歩行者認識において最も効果的で、精度と堅牢性が高いことが判明した。
論文 参考訳(メタデータ) (2024-04-11T18:42:14Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Turning Traffic Monitoring Cameras into Intelligent Sensors for Traffic
Density Estimation [9.096163152559054]
本稿では,4L特性の未校正交通監視カメラを用いて,交通密度を推定するためのフレームワークを提案する。
提案するフレームワークは,カメラキャリブレーションと車両検出という2つの主要コンポーネントで構成されている。
その結果, カメラキャリブレーションにおける平均絶対誤差 (MAE) は6m中0.2m未満であり, 各種条件下での車両検出精度は約90%であった。
論文 参考訳(メタデータ) (2021-10-29T15:39:06Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Unsupervised Vehicle Counting via Multiple Camera Domain Adaptation [9.730985797769764]
市民の生活の質と都市環境を改善するためには, 都市内の車両流のモニタリングが不可欠である。
画像のヒンジを大量の注釈付きデータにカウントする現在の技術は、新しいカメラがシステムに追加されるにつれて、都市規模へのスケーラビリティを損なう。
我々は,複数のカメラ領域を適応させてラベル付きデータが少ない画像に基づく車両密度推定器を設計するための新しい手法を提案し,議論する。
論文 参考訳(メタデータ) (2020-04-20T13:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。