論文の概要: STARNet: Sensor Trustworthiness and Anomaly Recognition via Approximated
Likelihood Regret for Robust Edge Autonomy
- arxiv url: http://arxiv.org/abs/2309.11006v1
- Date: Wed, 20 Sep 2023 02:20:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 17:33:36.910846
- Title: STARNet: Sensor Trustworthiness and Anomaly Recognition via Approximated
Likelihood Regret for Robust Edge Autonomy
- Title(参考訳): STARNet:ロバストエッジオートノミーのための近似リフレクトによるセンサ信頼性と異常認識
- Authors: Nastaran Darabi, Sina Tayebati, Sureshkumar S., Sathya Ravi, Theja
Tulabandhula, and Amit R. Trivedi
- Abstract要約: LiDAR、RADAR、イベントカメラといった複雑なセンサーは、自律型ロボティクスで急増している。
これらのセンサーは、運用環境と複雑な相互作用が可能な多様な障害メカニズムに対して脆弱である。
本稿では,信頼できないセンサストリームを検出するために設計されたセンサ信頼度・異常認識ネットワークSTARNetを紹介する。
- 参考スコア(独自算出の注目度): 0.5310810820034502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex sensors such as LiDAR, RADAR, and event cameras have proliferated in
autonomous robotics to enhance perception and understanding of the environment.
Meanwhile, these sensors are also vulnerable to diverse failure mechanisms that
can intricately interact with their operation environment. In parallel, the
limited availability of training data on complex sensors also affects the
reliability of their deep learning-based prediction flow, where their
prediction models can fail to generalize to environments not adequately
captured in the training set. To address these reliability concerns, this paper
introduces STARNet, a Sensor Trustworthiness and Anomaly Recognition Network
designed to detect untrustworthy sensor streams that may arise from sensor
malfunctions and/or challenging environments. We specifically benchmark STARNet
on LiDAR and camera data. STARNet employs the concept of approximated
likelihood regret, a gradient-free framework tailored for low-complexity
hardware, especially those with only fixed-point precision capabilities.
Through extensive simulations, we demonstrate the efficacy of STARNet in
detecting untrustworthy sensor streams in unimodal and multimodal settings. In
particular, the network shows superior performance in addressing internal
sensor failures, such as cross-sensor interference and crosstalk. In diverse
test scenarios involving adverse weather and sensor malfunctions, we show that
STARNet enhances prediction accuracy by approximately 10% by filtering out
untrustworthy sensor streams. STARNet is publicly available at
\url{https://github.com/sinatayebati/STARNet}.
- Abstract(参考訳): LiDAR、RADAR、イベントカメラといった複雑なセンサーは、環境の認識と理解を高めるために自律ロボット工学で増大している。
一方、これらのセンサーは、運用環境と複雑に相互作用できる様々な障害メカニズムにも脆弱である。
並行して、複雑なセンサー上でのトレーニングデータの可用性の制限は、彼らのディープラーニングベースの予測フローの信頼性にも影響する。
このような信頼性問題に対処するために,センサの故障や困難な環境から生じる不確実なセンサストリームを検出するために設計されたセンサ信頼度・異常認識ネットワークSTARNetを提案する。
具体的には、LiDARとカメラデータに基づいてSTARNetをベンチマークする。
スターネットは、低複雑さハードウェア、特に固定点精度しか持たないハードウェア向けに調整された勾配のないフレームワークである近似帰納的後悔という概念を採用している。
広範にシミュレーションを行い,ユニモーダルおよびマルチモーダル環境での信頼できないセンサストリーム検出におけるstarnetの有効性を実証した。
特に、ネットワークは、クロスセンサー干渉やクロストークのような内部センサー障害に対処する上で優れた性能を示す。
悪天候やセンサの故障を含む様々なテストシナリオにおいて,STARNetは信頼できないセンサストリームをフィルタリングすることで予測精度を約10%向上することを示した。
STARNet は \url{https://github.com/sinatayebati/STARNet} で公開されている。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Sensor Placement for Learning in Flow Networks [6.680930089714339]
本稿では,ネットワークのセンサ配置問題について検討する。
まず, 流れの保存仮定に基づいて問題を定式化し, 最適に固定されたセンサを配置することがNPハードであることを示す。
次に,大規模ネットワークにスケールするセンサ配置のための効率よく適応的なグリージーを提案する。
論文 参考訳(メタデータ) (2023-12-12T01:08:08Z) - Verifiable Obstacle Detection [10.277825331268179]
既存のLiDARに基づく古典的障害物検出アルゴリズムの安全性検証を行う。
本研究では,実世界のセンサデータに基づく実験結果を用いて,障害物検出システムの厳密な解析を行う。
論文 参考訳(メタデータ) (2022-08-30T17:15:35Z) - A deep learning approach to predict the number of k-barriers for
intrusion detection over a circular region using wireless sensor networks [3.6748639131154315]
無線センサネットワーク(WSN)は、国境地帯における侵入検知と監視の問題に対して実現可能な解決策である。
本稿では,高速な侵入検知・防止のためのkバリア数の正確な予測を行うために,完全接続型フィードフォワードニューラルネットワーク(ANN)に基づくディープラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-25T06:39:29Z) - SAFE-OCC: A Novelty Detection Framework for Convolutional Neural Network
Sensors and its Application in Process Control [0.0]
本稿では,センサアクティベート特徴抽出ワンクラス分類(SAFE-OCC)と呼ばれる,畳み込みニューラルネットワーク(CNN)センサの新規検出フレームワークを提案する。
このフレームワークは,プロセス制御アーキテクチャにおけるコンピュータビジョンセンサの安全な利用を可能にする。
論文 参考訳(メタデータ) (2022-02-03T19:47:55Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。