論文の概要: Designing deep neural networks for driver intention recognition
- arxiv url: http://arxiv.org/abs/2402.05150v1
- Date: Wed, 7 Feb 2024 12:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 17:43:42.211516
- Title: Designing deep neural networks for driver intention recognition
- Title(参考訳): 運転意図認識のためのディープニューラルネットワークの設計
- Authors: Koen Vellenga, H. Joe Steinhauer, Alexander Karlsson, G\"oran Falkman,
Asli Rhodin and Ashok Koppisetty
- Abstract要約: 本稿では,ニューラルネットワークアーキテクチャが現実世界の安全クリティカルなアプリケーションに与える影響について検討する。
2つの運転意図認識データセットに対して8つの探索戦略のセットを評価する。
- 参考スコア(独自算出の注目度): 40.87622566719826
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Driver intention recognition studies increasingly rely on deep neural
networks. Deep neural networks have achieved top performance for many different
tasks, but it is not a common practice to explicitly analyse the complexity and
performance of the network's architecture. Therefore, this paper applies neural
architecture search to investigate the effects of the deep neural network
architecture on a real-world safety critical application with limited
computational capabilities. We explore a pre-defined search space for three
deep neural network layer types that are capable to handle sequential data (a
long-short term memory, temporal convolution, and a time-series transformer
layer), and the influence of different data fusion strategies on the driver
intention recognition performance. A set of eight search strategies are
evaluated for two driver intention recognition datasets. For the two datasets,
we observed that there is no search strategy clearly sampling better deep
neural network architectures. However, performing an architecture search does
improve the model performance compared to the original manually designed
networks. Furthermore, we observe no relation between increased model
complexity and higher driver intention recognition performance. The result
indicate that multiple architectures yield similar performance, regardless of
the deep neural network layer type or fusion strategy.
- Abstract(参考訳): 運転意図認識の研究は深層ニューラルネットワークにますます依存している。
ディープニューラルネットワークは多くの異なるタスクでトップパフォーマンスを達成したが、ネットワークアーキテクチャの複雑さとパフォーマンスを明示的に分析するのは一般的ではない。
そこで本研究では,ニューラルネットワークアーキテクチャが計算能力に制限のある現実世界の安全クリティカルアプリケーションに与える影響を,ニューラルネットワーク探索を用いて検討する。
本研究では、時系列データ(長期記憶、時間畳み込み、時系列変換器層)を扱うことができる3種類のディープニューラルネットワーク層に対する事前定義された探索空間と、運転意図認識性能に対する異なるデータ融合戦略の影響について検討する。
2つの運転意図認識データセットに対して8つの探索戦略を評価する。
2つのデータセットについて、より優れたディープニューラルネットワークアーキテクチャを明らかにサンプリングする検索戦略がないことを観察した。
しかし、アーキテクチャ検索を行うことで、元の手動設計のネットワークと比較してモデル性能が向上する。
さらに,モデル複雑性の増加と運転意図認識性能の関係は観察されなかった。
その結果、ディープニューラルネットワーク層の種類や融合戦略に関わらず、複数のアーキテクチャが同様のパフォーマンスをもたらすことが示されている。
関連論文リスト
- Efficient and Accurate Hyperspectral Image Demosaicing with Neural Network Architectures [3.386560551295746]
本研究では,ハイパースペクトル画像復調におけるニューラルネットワークアーキテクチャの有効性について検討した。
様々なネットワークモデルと修正を導入し、それらを従来の手法や既存の参照ネットワークアプローチと比較する。
その結果、我々のネットワークは、例外的な性能を示す両方のデータセットにおいて、参照モデルよりも優れるか、一致していることがわかった。
論文 参考訳(メタデータ) (2023-12-21T08:02:49Z) - Set-based Neural Network Encoding [57.15855198512551]
一般化性能予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークの一般化性能予測には,クロスデータセットとクロスアーキテクチャという2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Convolution, aggregation and attention based deep neural networks for
accelerating simulations in mechanics [1.0154623955833253]
固体の変形を効率的に学習するための3種類のニューラルネットワークアーキテクチャを実証する。
最初の2つは、最近提案されたCNN U-NETとMagNETフレームワークに基づいており、メッシュベースのデータで学習する上で有望なパフォーマンスを示している。
第3のアーキテクチャであるPerceiver IOは、注目に基づくニューラルネットワークのファミリに属する、非常に最近のアーキテクチャである。
論文 参考訳(メタデータ) (2022-12-01T13:10:56Z) - Max and Coincidence Neurons in Neural Networks [0.07614628596146598]
ニューラルアーキテクチャサーチを用いて、最大ニューロンと偶然ニューロンのモデルを含むネットワークを最適化する。
我々は、信号処理ResNetを開発するために最適化ネットワークの構造、動作、ニューロンを分析する。
開発されたネットワークは、精度が平均2%向上し、さまざまなデータセットでネットワークサイズが25%向上した。
論文 参考訳(メタデータ) (2021-10-04T07:13:50Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Inferring Convolutional Neural Networks' accuracies from their
architectural characterizations [0.0]
CNNのアーキテクチャと性能の関係について検討する。
本稿では,2つのコンピュータビジョンに基づく物理問題において,その特性がネットワークの性能を予測できることを示す。
我々は機械学習モデルを用いて、トレーニング前にネットワークが一定のしきい値精度よりも優れた性能を発揮できるかどうかを予測する。
論文 参考訳(メタデータ) (2020-01-07T16:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。