論文の概要: Exploiting T-norms for Deep Learning in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2402.11362v1
- Date: Sat, 17 Feb 2024 18:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:50:41.891070
- Title: Exploiting T-norms for Deep Learning in Autonomous Driving
- Title(参考訳): 自動運転における深層学習のためのTノルムの探索
- Authors: Mihaela C\u{a}t\u{a}lina Stoian, Eleonora Giunchiglia, Thomas
Lukasiewicz
- Abstract要約: 自律運転におけるイベント検出のタスクにおいて,メモリ効率のよいtノルムに基づく損失をどうやって定義できるかを示す。
- 参考スコア(独自算出の注目度): 60.205021207641174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has been at the core of the autonomous driving field
development, due to the neural networks' success in finding patterns in raw
data and turning them into accurate predictions. Moreover, recent
neuro-symbolic works have shown that incorporating the available background
knowledge about the problem at hand in the loss function via t-norms can
further improve the deep learning models' performance. However, t-norm-based
losses may have very high memory requirements and, thus, they may be impossible
to apply in complex application domains like autonomous driving. In this paper,
we show how it is possible to define memory-efficient t-norm-based losses,
allowing for exploiting t-norms for the task of event detection in autonomous
driving. We conduct an extensive experimental analysis on the ROAD-R dataset
and show (i) that our proposal can be implemented and run on GPUs with less
than 25 GiB of available memory, while standard t-norm-based losses are
estimated to require more than 100 GiB, far exceeding the amount of memory
normally available, (ii) that t-norm-based losses improve performance,
especially when limited labelled data are available, and (iii) that
t-norm-based losses can further improve performance when exploited on both
labelled and unlabelled data.
- Abstract(参考訳): ディープラーニングは、ニューラルネットワークが生データからパターンを見つけ出し、正確な予測にするという成功によって、自動運転分野の開発の中核をなしている。
さらに、近年のニューロシンボリック研究により、tノルムによる損失関数に手元にある問題の背景知識を組み込むことで、深層学習モデルの性能をさらに向上できることが示されている。
しかし、t-normベースの損失はメモリ要求が非常に高いため、自律運転のような複雑なアプリケーションドメインに適用することは不可能である。
本稿では、自律運転における事象検出のタスクにおいて、メモリ効率の高いtノルムに基づく損失をどうやって定義できるかを示す。
ROAD-Rデータセットに関する広範な実験分析を行い、そのことを示す。
(i)25ギブ未満のメモリでgpu上で実装・動作することを提案し、標準のtノルムベースの損失は100ギブ以上必要と推定され、通常利用可能なメモリをはるかに超えている。
t-ノルムに基づく損失は、特にラベル付きデータが限られている場合、パフォーマンスを向上させる。
(iii)ラベル付きデータとラベルなしデータの両方で悪用された場合、t-normベースの損失は更にパフォーマンスを向上させることができる。
関連論文リスト
- Unraveling the "Anomaly" in Time Series Anomaly Detection: A
Self-supervised Tri-domain Solution [89.16750999704969]
異常ラベルは時系列異常検出において従来の教師付きモデルを妨げる。
自己教師型学習のような様々なSOTA深層学習技術がこの問題に対処するために導入されている。
自己教師型3領域異常検出器(TriAD)を提案する。
論文 参考訳(メタデータ) (2023-11-19T05:37:18Z) - Object Size-Driven Design of Convolutional Neural Networks: Virtual Axle
Detection based on Raw Data [0.0]
本稿では,専用軸検出装置を使わずにBWIM(Bridge Weigh-In-Motion)システムのリアルタイム適用を可能にする,軸検出のための新しいアプローチを提案する。
The proposed Virtual Axle Detector with Enhanced Receptive Field (VADER) is independent to bridge type and sensor placement。
スペクトルを入力としてではなく生データを使用することで、パラメータの数を増やすことなく、受容野を拡張できる。
論文 参考訳(メタデータ) (2023-09-04T12:53:54Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - DeepFT: Fault-Tolerant Edge Computing using a Self-Supervised Deep
Surrogate Model [12.335763358698564]
本稿では,システム過負荷とその悪影響を積極的に回避するためにDeepFTを提案する。
DeepFTは、システム内の障害を正確に予測し、診断するために、ディープサロゲートモデルを使用している。
モデルのサイズが1ユニットあたりわずか3~1%のスケールで、アクティブなタスクやホストの数が増えるため、非常にスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2022-12-02T16:51:58Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - Anomaly Detection in Trajectory Data with Normalizing Flows [0.0]
本稿では,ニューラルネットワークを用いたデータから複雑な密度推定を可能にする,正規化フローに基づく手法を提案する。
提案手法は, 軌道の各セグメントに対して, 流れを正規化する重要な特徴である, 正確なモデル確率値を算出する。
実世界の軌道データを用いて, 正規化フローを用いた集約異常検出法(GRADINGS)を評価し, 従来の異常検出法と比較した。
論文 参考訳(メタデータ) (2020-04-13T14:16:40Z) - A Survey on Impact of Transient Faults on BNN Inference Accelerators [0.9667631210393929]
ビッグデータブームにより、非常に大きなデータセットへのアクセスと分析が容易になります。
ディープラーニングモデルは、計算能力と極めて高いメモリアクセスを必要とする。
本研究では,ソフトエラーが独自の深層学習アルゴリズムに与える影響が画像の劇的な誤分類を引き起こす可能性を実証した。
論文 参考訳(メタデータ) (2020-04-10T16:15:55Z) - SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection [29.500392184282518]
異常検出のための単一トンネルGRU(Single Tunnelled GRU)と呼ばれるGRU(Gated Recurrent Unit)の新規バージョンを提案する。
提案手法は,標準GRUとLong Short Term Memory(LSTM)ネットワークを,検出および一般化タスクのほとんどの指標で上回っている。
論文 参考訳(メタデータ) (2020-03-30T14:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。