論文の概要: Exploiting T-norms for Deep Learning in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2402.11362v1
- Date: Sat, 17 Feb 2024 18:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:50:41.891070
- Title: Exploiting T-norms for Deep Learning in Autonomous Driving
- Title(参考訳): 自動運転における深層学習のためのTノルムの探索
- Authors: Mihaela C\u{a}t\u{a}lina Stoian, Eleonora Giunchiglia, Thomas
Lukasiewicz
- Abstract要約: 自律運転におけるイベント検出のタスクにおいて,メモリ効率のよいtノルムに基づく損失をどうやって定義できるかを示す。
- 参考スコア(独自算出の注目度): 60.205021207641174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has been at the core of the autonomous driving field
development, due to the neural networks' success in finding patterns in raw
data and turning them into accurate predictions. Moreover, recent
neuro-symbolic works have shown that incorporating the available background
knowledge about the problem at hand in the loss function via t-norms can
further improve the deep learning models' performance. However, t-norm-based
losses may have very high memory requirements and, thus, they may be impossible
to apply in complex application domains like autonomous driving. In this paper,
we show how it is possible to define memory-efficient t-norm-based losses,
allowing for exploiting t-norms for the task of event detection in autonomous
driving. We conduct an extensive experimental analysis on the ROAD-R dataset
and show (i) that our proposal can be implemented and run on GPUs with less
than 25 GiB of available memory, while standard t-norm-based losses are
estimated to require more than 100 GiB, far exceeding the amount of memory
normally available, (ii) that t-norm-based losses improve performance,
especially when limited labelled data are available, and (iii) that
t-norm-based losses can further improve performance when exploited on both
labelled and unlabelled data.
- Abstract(参考訳): ディープラーニングは、ニューラルネットワークが生データからパターンを見つけ出し、正確な予測にするという成功によって、自動運転分野の開発の中核をなしている。
さらに、近年のニューロシンボリック研究により、tノルムによる損失関数に手元にある問題の背景知識を組み込むことで、深層学習モデルの性能をさらに向上できることが示されている。
しかし、t-normベースの損失はメモリ要求が非常に高いため、自律運転のような複雑なアプリケーションドメインに適用することは不可能である。
本稿では、自律運転における事象検出のタスクにおいて、メモリ効率の高いtノルムに基づく損失をどうやって定義できるかを示す。
ROAD-Rデータセットに関する広範な実験分析を行い、そのことを示す。
(i)25ギブ未満のメモリでgpu上で実装・動作することを提案し、標準のtノルムベースの損失は100ギブ以上必要と推定され、通常利用可能なメモリをはるかに超えている。
t-ノルムに基づく損失は、特にラベル付きデータが限られている場合、パフォーマンスを向上させる。
(iii)ラベル付きデータとラベルなしデータの両方で悪用された場合、t-normベースの損失は更にパフォーマンスを向上させることができる。
関連論文リスト
- GDFlow: Anomaly Detection with NCDE-based Normalizing Flow for Advanced Driver Assistance System [20.690653201455373]
グラフニューラル制御した微分方程式正規化フロー(GDFlow)を提案し,通常の運転パターンの分布を連続的に学習する。
我々は,Hyundai IONIQ5とGV80EVから収集した実世界の電気自動車運転データを用いてGDFlowを検証する。
論文 参考訳(メタデータ) (2024-09-09T06:04:41Z) - Beyond Uncertainty: Evidential Deep Learning for Robust Video Temporal Grounding [49.973156959947346]
既存のビデオ時間グラウンド(VTG)モデルは精度は優れているが、オープン語彙クエリや未トリミングビデオによって引き起こされるオープンワールドの課題を見落としていることが多い。
2段階のクロスモーダルアライメントタスクの恩恵を受ける頑健なネットワークモジュールを導入する。
Deep Evidential Regression (DER)を統合して、トレーニング中の不確実性を明確かつ徹底的に定量化する。
これに対し,我々は,不確実性学習フレームワークをゼロから強化する簡易かつ効果的なGeom-regularizerを開発した。
論文 参考訳(メタデータ) (2024-08-29T05:32:03Z) - Root Cause Analysis of Anomalies in 5G RAN Using Graph Neural Network and Transformer [0.9895793818721335]
5G無線アクセスネットワーク(RAN)における異常検出と根本原因解析のための最先端手法を提案する。
グラフネットワークを利用して空間的関係をキャプチャし、Transformerモデルを使用してデータの時間的依存関係を学習する。
結果は、Simbaの優位性を確認するために、既存のソリューションと比較される。
論文 参考訳(メタデータ) (2024-06-21T20:34:08Z) - ARC: A Generalist Graph Anomaly Detector with In-Context Learning [62.202323209244]
ARCは汎用的なGADアプローチであり、一対一のGADモデルで様々なグラフデータセットの異常を検出することができる。
ARCはコンテキスト内学習を備えており、ターゲットデータセットからデータセット固有のパターンを直接抽出することができる。
各種領域からの複数のベンチマークデータセットに対する大規模な実験は、ARCの優れた異常検出性能、効率、一般化性を示す。
論文 参考訳(メタデータ) (2024-05-27T02:42:33Z) - Computationally and Memory-Efficient Robust Predictive Analytics Using Big Data [0.0]
本研究では、データ不確実性、ストレージ制限、ビッグデータを用いた予測データ駆動モデリングの課題をナビゲートする。
本稿では,ロバスト主成分分析(RPCA)を有効ノイズ低減と外乱除去に利用し,最適センサ配置(OSP)を効率的なデータ圧縮・記憶に活用する。
論文 参考訳(メタデータ) (2024-03-27T22:39:08Z) - Unraveling the "Anomaly" in Time Series Anomaly Detection: A
Self-supervised Tri-domain Solution [89.16750999704969]
異常ラベルは時系列異常検出において従来の教師付きモデルを妨げる。
自己教師型学習のような様々なSOTA深層学習技術がこの問題に対処するために導入されている。
自己教師型3領域異常検出器(TriAD)を提案する。
論文 参考訳(メタデータ) (2023-11-19T05:37:18Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - DeepFT: Fault-Tolerant Edge Computing using a Self-Supervised Deep
Surrogate Model [12.335763358698564]
本稿では,システム過負荷とその悪影響を積極的に回避するためにDeepFTを提案する。
DeepFTは、システム内の障害を正確に予測し、診断するために、ディープサロゲートモデルを使用している。
モデルのサイズが1ユニットあたりわずか3~1%のスケールで、アクティブなタスクやホストの数が増えるため、非常にスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2022-12-02T16:51:58Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection [29.500392184282518]
異常検出のための単一トンネルGRU(Single Tunnelled GRU)と呼ばれるGRU(Gated Recurrent Unit)の新規バージョンを提案する。
提案手法は,標準GRUとLong Short Term Memory(LSTM)ネットワークを,検出および一般化タスクのほとんどの指標で上回っている。
論文 参考訳(メタデータ) (2020-03-30T14:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。