論文の概要: Hybrid Traffic Control and Coordination from Pixels
- arxiv url: http://arxiv.org/abs/2302.09167v1
- Date: Fri, 17 Feb 2023 22:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 20:08:14.570578
- Title: Hybrid Traffic Control and Coordination from Pixels
- Title(参考訳): ハイブリッド交通制御と画素からの協調
- Authors: Michael Villarreal, Bibek Poudel, Jia Pan, Weizi Li
- Abstract要約: 画像観測を用いたロボット車両は,ネットワーク上の正確な情報を用いた場合と同様の性能が得られることを示す。
また、テストネットワーク上では、一部のケースでパフォーマンス(最大26%)が向上することを示した。
- 参考スコア(独自算出の注目度): 15.506580054852325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic congestion is a persistent problem in our society. Existing methods
for traffic control have proven futile in alleviating current congestion levels
leading researchers to explore ideas with robot vehicles given the increased
emergence of vehicles with different levels of autonomy on our roads. This
gives rise to hybrid traffic control, where robot vehicles regulate
human-driven vehicles, through reinforcement learning (RL). However, most
existing studies use precise observations that involve global information, such
as network throughput, as well as local information, such as vehicle positions
and velocities. Obtaining this information requires updating existing road
infrastructure with vast sensor networks and communication to potentially
unwilling human drivers. We consider image observations as the alternative for
hybrid traffic control via RL: 1) images are readily available through
satellite imagery, in-car camera systems, and traffic monitoring systems; 2)
Images do not require a complete re-imagination of the observation space from
network to network; and 3) images only require communication to equipment. In
this work, we show that robot vehicles using image observations can achieve
similar performance to using precise information on networks, including ring,
figure eight, merge, bottleneck, and intersections. We also demonstrate
increased performance (up to 26%) in certain cases on tested networks, despite
only using local traffic information as opposed to global traffic information.
- Abstract(参考訳): 交通渋滞は社会の永続的な問題である。
既存の交通制御手法は、現在の渋滞レベルを緩和する上で無駄であることが証明されており、道路上での自律性の異なる車両の出現が増加するにつれて、研究者はロボットによるアイデアを探求するようになる。
これにより、ロボット車両が強化学習(RL)を通じて人間駆動車両を規制するハイブリッド交通制御がもたらされる。
しかし、既存の研究の多くは、ネットワークスループットなどのグローバル情報や、車両の位置や速度などのローカル情報を含む正確な観測を使っている。
この情報を取得するには、既存の道路インフラを大規模なセンサーネットワークで更新する必要がある。
我々は,画像観察をrlによるハイブリッド交通制御の代替案と考える。
1) 画像は、衛星画像、車載カメラシステム及び交通監視システムを介して容易に利用可能である。
2) 画像は,ネットワークからネットワークへの観測空間の完全な再想像を必要としない。
3)画像は機器への通信のみを必要とする。
本研究では,画像観察を用いたロボット車両が,リング,図8,マージ,ボトルネック,交差点などのネットワーク上の正確な情報を用いて,同様の性能を実現することを示す。
また,グローバルなトラフィック情報とは対照的に,ローカルトラフィック情報のみを使用しながら,テストネットワーク上では性能が26%向上することを示した。
関連論文リスト
- Traffic control using intelligent timing of traffic lights with reinforcement learning technique and real-time processing of surveillance camera images [0.0]
信号機の最適タイミングを判定し、複数のパラメータに従って適用する。
YOLOv9-Cモデルを用いた車両検出には深層学習法が用いられた。
イランの車の画像にトランスファーラーニングとモデルの再訓練を併用することで、モデルの精度が向上した。
論文 参考訳(メタデータ) (2024-05-22T00:04:32Z) - Real-Time Detection and Analysis of Vehicles and Pedestrians using Deep Learning [0.0]
現在の交通監視システムは、小さな物体や歩行者をリアルタイムで効果的に認識する上で大きな困難に直面している。
本研究は、車や人の正確なリアルタイム認識のための複雑な視覚入力を処理できる高度なディープラーニングフレームワークの作成と検証に重点を置いている。
YOLOv8 大型モデルは、特に歩行者認識において最も効果的で、精度と堅牢性が高いことが判明した。
論文 参考訳(メタデータ) (2024-04-11T18:42:14Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Turning Traffic Monitoring Cameras into Intelligent Sensors for Traffic
Density Estimation [9.096163152559054]
本稿では,4L特性の未校正交通監視カメラを用いて,交通密度を推定するためのフレームワークを提案する。
提案するフレームワークは,カメラキャリブレーションと車両検出という2つの主要コンポーネントで構成されている。
その結果, カメラキャリブレーションにおける平均絶対誤差 (MAE) は6m中0.2m未満であり, 各種条件下での車両検出精度は約90%であった。
論文 参考訳(メタデータ) (2021-10-29T15:39:06Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Unsupervised Vehicle Counting via Multiple Camera Domain Adaptation [9.730985797769764]
市民の生活の質と都市環境を改善するためには, 都市内の車両流のモニタリングが不可欠である。
画像のヒンジを大量の注釈付きデータにカウントする現在の技術は、新しいカメラがシステムに追加されるにつれて、都市規模へのスケーラビリティを損なう。
我々は,複数のカメラ領域を適応させてラベル付きデータが少ない画像に基づく車両密度推定器を設計するための新しい手法を提案し,議論する。
論文 参考訳(メタデータ) (2020-04-20T13:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。