論文の概要: Visual-information-driven model for crowd simulation using temporal
convolutional network
- arxiv url: http://arxiv.org/abs/2311.02996v1
- Date: Mon, 6 Nov 2023 09:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:47:34.755859
- Title: Visual-information-driven model for crowd simulation using temporal
convolutional network
- Title(参考訳): 時間畳み込みネットワークを用いた群集シミュレーションのための視覚情報駆動モデル
- Authors: Xuanwen Liang and Eric Wai Ming Lee
- Abstract要約: 本稿では,視覚情報駆動(VID)群群シミュレーションモデルを提案する。
VIDモデルは、過去の社会的視覚情報と個人の動きデータに基づいて、次のステップで歩行者の速度を予測する。
歩行者の視覚情報を抽出するために,レーダ・ジオメトリ・ロコモーション法が確立された。
時空間畳み込みネットワーク(TCN)に基づく深層学習モデルであるSocial-visual TCNを開発した。
- 参考スコア(独自算出の注目度): 2.023315598404668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowd simulations play a pivotal role in building design, influencing both
user experience and public safety. While traditional knowledge-driven models
have their merits, data-driven crowd simulation models promise to bring a new
dimension of realism to these simulations. However, most of the existing
data-driven models are designed for specific geometries, leading to poor
adaptability and applicability. A promising strategy for enhancing the
adaptability and realism of data-driven crowd simulation models is to
incorporate visual information, including the scenario geometry and pedestrian
locomotion. Consequently, this paper proposes a novel visual-information-driven
(VID) crowd simulation model. The VID model predicts the pedestrian velocity at
the next time step based on the prior social-visual information and motion data
of an individual. A radar-geometry-locomotion method is established to extract
the visual information of pedestrians. Moreover, a temporal convolutional
network (TCN)-based deep learning model, named social-visual TCN, is developed
for velocity prediction. The VID model is tested on three public pedestrian
motion datasets with distinct geometries, i.e., corridor, corner, and
T-junction. Both qualitative and quantitative metrics are employed to evaluate
the VID model, and the results highlight the improved adaptability of the model
across all three geometric scenarios. Overall, the proposed method demonstrates
effectiveness in enhancing the adaptability of data-driven crowd models.
- Abstract(参考訳): 群衆シミュレーションは、ユーザーエクスペリエンスと公共の安全の両方に影響を与える設計において重要な役割を果たす。
従来の知識駆動モデルにはメリットがあるが、データ駆動の群衆シミュレーションモデルは、これらのシミュレーションに新しい次元のリアリズムをもたらすことを約束している。
しかし、既存のデータ駆動モデルのほとんどは特定のジオメトリ用に設計されており、適応性と適用性が低い。
データ駆動の群衆シミュレーションモデルの適応性とリアリズムを高めるための有望な戦略は、シナリオ幾何や歩行者の移動を含む視覚情報を取り入れることである。
そこで本研究では,視覚情報駆動型群集シミュレーションモデルを提案する。
VIDモデルは、過去の社会的視覚情報と個人の動きデータに基づいて、次のステップで歩行者の速度を予測する。
歩行者の視覚情報を抽出するために,レーダ・ジオメトリ・ロコモーション法を確立する。
さらに, 時空間畳み込みネットワーク(TCN)に基づく深層学習モデルである社会的視覚的TCNを開発し, 速度予測を行った。
VIDモデルは、異なるジオメトリ、すなわち廊下、コーナー、Tジャンクションを持つ3つの公共歩行者運動データセットでテストされる。
vidモデルの評価には質的および定量的な指標が採用され,3つの幾何学的シナリオにまたがってモデルの適応性が向上した。
提案手法は,データ駆動群集モデルの適応性向上に有効であることを示す。
関連論文リスト
- A Data-driven Crowd Simulation Framework Integrating Physics-informed Machine Learning with Navigation Potential Fields [15.429885272765363]
本研究では,物理インフォームド・機械学習(PIML)とナビゲーションポテンシャル場を統合した,新しいデータ駆動クラウドシミュレーションフレームワークを提案する。
具体的には,革新的な物理インフォームドS時間グラフ畳み込みネットワーク(PI-STGCN)を,歩行者の移動傾向を予測するデータ駆動モジュールとして設計する。
本フレームワークでは,PI-STGCNにより予測される移動傾向に基づいて,ナビゲーション電位場を動的に計算し,更新する。
論文 参考訳(メタデータ) (2024-10-21T15:56:17Z) - Spatiotemporal Implicit Neural Representation as a Generalized Traffic Data Learner [46.866240648471894]
時空間交通データ(STTD)は、マルチスケール交通システムの複雑な動的挙動を測定する。
本稿では,STTDを暗黙的ニューラル表現としてパラメータ化することで,STTD学習問題に対処する新しいパラダイムを提案する。
実世界のシナリオにおける広範な実験を通じて,その有効性を検証し,廊下からネットワークスケールへの応用を示す。
論文 参考訳(メタデータ) (2024-05-06T06:23:06Z) - Bridging the Sim-to-Real Gap with Bayesian Inference [53.61496586090384]
データからロボットダイナミクスを学習するためのSIM-FSVGDを提案する。
我々は、ニューラルネットワークモデルのトレーニングを規則化するために、低忠実度物理プリエンスを使用します。
高性能RCレースカーシステムにおけるSIM-to-realギャップのブリッジ化におけるSIM-FSVGDの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T11:29:32Z) - Trajeglish: Traffic Modeling as Next-Token Prediction [67.28197954427638]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Reinforcement Learning with Human Feedback for Realistic Traffic
Simulation [53.85002640149283]
効果的なシミュレーションの鍵となる要素は、人間の知識と整合した現実的な交通モデルの導入である。
本研究では,現実主義に対する人間の嗜好のニュアンスを捉えることと,多様な交通シミュレーションモデルを統合することの2つの主な課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-01T19:29:53Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Imagining The Road Ahead: Multi-Agent Trajectory Prediction via
Differentiable Simulation [17.953880589741438]
軌道予測のための完全微分可能なシミュレータを用いた深部生成モデルを開発した。
本稿では,標準ニューラルアーキテクチャと標準変動訓練目標を用いて,インタラクションデータセットの最先端の結果を得る。
Imagining the Road Ahead" からモデル ITRA と命名した。
論文 参考訳(メタデータ) (2021-04-22T17:48:08Z) - Pedestrian Trajectory Prediction with Convolutional Neural Networks [0.3787359747190393]
本稿では,新しい2次元畳み込みモデルを導入し,歩行者軌道予測への新たなアプローチを提案する。
この新モデルはリカレントモデルより優れており、ETHとTrajNetデータセットの最先端の結果が得られる。
また,歩行者の位置と強力なデータ拡張手法を効果的に表現するシステムを提案する。
論文 参考訳(メタデータ) (2020-10-12T15:51:01Z) - Wind speed prediction using multidimensional convolutional neural
networks [5.228711636020665]
本稿では,風速予測タスクのための畳み込みニューラルネットワーク(CNN)に基づくモデルを提案する。
従来のCNNモデルと比較して,提案モデルでは風速データより優れた特徴付けが可能であることを示す。
論文 参考訳(メタデータ) (2020-07-04T20:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。