論文の概要: DrivAerNet: A Parametric Car Dataset for Data-Driven Aerodynamic Design
and Graph-Based Drag Prediction
- arxiv url: http://arxiv.org/abs/2403.08055v1
- Date: Tue, 12 Mar 2024 20:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 16:55:23.923419
- Title: DrivAerNet: A Parametric Car Dataset for Data-Driven Aerodynamic Design
and Graph-Based Drag Prediction
- Title(参考訳): DrivAerNet: データ駆動型空力設計のためのパラメトリックカーデータセット
グラフに基づくドラッグ予測
- Authors: Mohamed Elrefaie, Angela Dai, Faez Ahmed
- Abstract要約: 本研究では,3次元産業標準車形状の大規模高速CFDデータセットであるDrivAerNetと,動的グラフ畳み込みニューラルネットワークモデルであるRegDGCNNを紹介する。
DrivAerNetとRegDGCNNは共に、車の設計プロセスを加速し、より効率的な車両の開発に貢献することを約束している。
- 参考スコア(独自算出の注目度): 30.697742505713254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study introduces DrivAerNet, a large-scale high-fidelity CFD dataset of
3D industry-standard car shapes, and RegDGCNN, a dynamic graph convolutional
neural network model, both aimed at aerodynamic car design through machine
learning. DrivAerNet, with its 4000 detailed 3D car meshes using 0.5 million
surface mesh faces and comprehensive aerodynamic performance data comprising of
full 3D pressure, velocity fields, and wall-shear stresses, addresses the
critical need for extensive datasets to train deep learning models in
engineering applications. It is 60\% larger than the previously available
largest public dataset of cars, and is the only open-source dataset that also
models wheels and underbody. RegDGCNN leverages this large-scale dataset to
provide high-precision drag estimates directly from 3D meshes, bypassing
traditional limitations such as the need for 2D image rendering or Signed
Distance Fields (SDF). By enabling fast drag estimation in seconds, RegDGCNN
facilitates rapid aerodynamic assessments, offering a substantial leap towards
integrating data-driven methods in automotive design. Together, DrivAerNet and
RegDGCNN promise to accelerate the car design process and contribute to the
development of more efficient vehicles. To lay the groundwork for future
innovations in the field, the dataset and code used in our study are publicly
accessible at \url{https://github.com/Mohamedelrefaie/DrivAerNet}
- Abstract(参考訳): 本研究では、3D業界標準カー形状の大規模高速CFDデータセットであるDrivAerNetと、動的グラフ畳み込みニューラルネットワークモデルであるRegDGCNNを紹介する。
DrivAerNetは、0.5万表面メッシュ面と、完全な3D圧力、速度場、壁面のストレスからなる包括的な空力性能データを使用した4000の詳細な3Dカーメッシュを使用して、エンジニアリングアプリケーションでディープラーニングモデルをトレーニングするための広範なデータセットの必要性に対処する。
これまでに利用可能な最大規模の自動車データセットより60倍大きく、ホイールとアンダーボディをモデル化する唯一のオープンソースデータセットである。
RegDGCNNはこの大規模なデータセットを活用して、3Dメッシュから直接高精度なドラッグ推定を提供し、2D画像レンダリングやSigned Distance Fields(SDF)といった従来の制限を回避している。
数秒で高速なドラッグ推定を可能にすることで、RegDGCNNは高速な空力評価を可能にし、データ駆動手法を自動車設計に統合するための大きな飛躍を提供する。
DrivAerNetとRegDGCNNは共に、車の設計プロセスを加速し、より効率的な車両の開発に貢献することを約束している。
この分野におけるイノベーションの基盤となるために、我々の研究で使用されるデータセットとコードは、 \url{https://github.com/Mohamedelrefaie/DrivAerNet} で公開されている。
関連論文リスト
- VECTOR: Velocity-Enhanced GRU Neural Network for Real-Time 3D UAV Trajectory Prediction [2.1825723033513165]
シーケンスベースニューラルネットワークにおけるGRU(Gated Recurrent Units)を用いた新しいトラジェクトリ予測手法を提案する。
我々は、合成と実世界のUAV軌跡データの両方を使用し、幅広い飛行パターン、速度、機敏性を捉えています。
GRUベースのモデルは、平均二乗誤差(MSE)を2×10-8に抑えながら、最先端のRNNアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2024-10-24T07:16:42Z) - DrivAerNet++: A Large-Scale Multimodal Car Dataset with Computational Fluid Dynamics Simulations and Deep Learning Benchmarks [25.00264553520033]
DrivAerNet++は、高忠実度計算流体力学(CFD)シミュレーションをモデルとした8000の多種多様な自動車設計で構成されている。
データセットには、ファストバック、ノッチバック、エステートバックといった多様な車種が含まれており、内燃機関と電気自動車の両方を表す車体と車輪のデザインが異なる。
このデータセットは、データ駆動設計最適化、生成モデリング、代理モデルトレーニング、CFDシミュレーションアクセラレーション、幾何学的分類を含む幅広い機械学習アプリケーションをサポートしている。
論文 参考訳(メタデータ) (2024-06-13T23:19:48Z) - DriveWorld: 4D Pre-trained Scene Understanding via World Models for Autonomous Driving [67.46481099962088]
現在の視覚中心の事前訓練は、通常、2Dまたは3Dのプリテキストタスクに依存し、自律運転の時間的特性を4Dシーン理解タスクとして見落としている。
我々は,マルチカメラ駆動ビデオからテンポラリな方法で事前学習が可能なEmphcentricDriveWorldを紹介した。
DriveWorldは、さまざまな自動運転タスクに関する有望な結果を提供する。
論文 参考訳(メタデータ) (2024-05-07T15:14:20Z) - TrajectoryNAS: A Neural Architecture Search for Trajectory Prediction [0.0]
軌道予測は自律走行システムの重要な構成要素である。
本稿では,軌道予測にポイントクラウドデータを活用する先駆的手法であるTrajectoryNASを紹介する。
論文 参考訳(メタデータ) (2024-03-18T11:48:41Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [61.520225216107306]
軌道予測におけるデータ不足の問題を緩和するパイプラインレベルのソリューションを提案する。
我々は、駆動データを生成するためにHDマップ拡張とトラジェクトリ合成を採用し、それらを事前学習することで表現を学習する。
我々は、データ拡張と事前学習戦略の有効性を実証するための広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - Surrogate Modeling of Car Drag Coefficient with Depth and Normal
Renderings [4.868319717279586]
本稿では,3次元カードラッグの予測の有効性を検証するために,新しい2次元3次元形状表現法を提案する。
我々はドラッグ係数でラベル付けされた9,070個の高品質な3Dカーメッシュの多様なデータセットを構築した。
実験により,車種別0.84以上のR2$値のドラッグ係数を精度良く,効率的に評価できることを示した。
論文 参考訳(メタデータ) (2023-05-26T09:33:12Z) - DL-Traff: Survey and Benchmark of Deep Learning Models for Urban Traffic
Prediction [7.476566278759198]
このようなデータに最先端のディープラーニング技術を活用することで、都市交通予測はAIとインテリジェントトランスポーテーションシステムコミュニティに大きな注目を集めている。
具体的なモデリング戦略によると、最先端のディープラーニングモデルは、グリッドベース、グラフベース、時系列モデルという3つのカテゴリに分けられる。
論文 参考訳(メタデータ) (2021-08-20T10:08:26Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。