論文の概要: Reliability Validation of Learning Enabled Vehicle Tracking
- arxiv url: http://arxiv.org/abs/2002.02424v1
- Date: Thu, 6 Feb 2020 18:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:05:29.481190
- Title: Reliability Validation of Learning Enabled Vehicle Tracking
- Title(参考訳): 学習可能な車両追跡の信頼性検証
- Authors: Youcheng Sun, Yifan Zhou, Simon Maskell, James Sharp, Xiaowei Huang
- Abstract要約: 本稿では,ダイナミックな車両追跡を行う実世界の学習支援システムの信頼性について検討する。
ニューラルネットワークは敵の例に悩まされ、堅牢性が欠如していることが知られている。
網羅型ニューラルネットワークテストツールDeepConcolicと車両追跡システムを統合することで、システム全体が敵の例に耐性があることが判明した。
- 参考スコア(独自算出の注目度): 13.642244802899471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the reliability of a real-world learning-enabled system,
which conducts dynamic vehicle tracking based on a high-resolution wide-area
motion imagery input. The system consists of multiple neural network components
-- to process the imagery inputs -- and multiple symbolic (Kalman filter)
components -- to analyse the processed information for vehicle tracking. It is
known that neural networks suffer from adversarial examples, which make them
lack robustness. However, it is unclear if and how the adversarial examples
over learning components can affect the overall system-level reliability. By
integrating a coverage-guided neural network testing tool, DeepConcolic, with
the vehicle tracking system, we found that (1) the overall system can be
resilient to some adversarial examples thanks to the existence of other
components, and (2) the overall system presents an extra level of uncertainty
which cannot be determined by analysing the deep learning components only. This
research suggests the need for novel verification and validation methods for
learning-enabled systems.
- Abstract(参考訳): 本稿では,高分解能広域動画像入力に基づく動的車両追跡を行う実世界の学習可能なシステムの信頼性について検討する。
このシステムは、画像入力を処理する複数のニューラルネットワークコンポーネントと、車両追跡のために処理された情報を分析する複数のシンボル(カルマンフィルタ)コンポーネントで構成される。
ニューラルネットワークは敵の例に悩まされ、堅牢性が欠如していることが知られている。
しかし、学習コンポーネント上の敵対的な例がシステム全体の信頼性にどのように影響するかは明らかではない。
対象とするニューラルネットワークテストツールであるdeepconcolicを車両追跡システムに統合することにより,(1)他のコンポーネントの存在により,システム全体が敵対的な例に対してレジリエントになりうること,(2)ディープラーニングコンポーネントのみを分析して判断できない余分なレベルの不確実性を示すこと,の2つを見いだした。
本研究は,学習可能なシステムのための新しい検証手法と検証手法の必要性を示唆する。
関連論文リスト
- Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Simultaneous Learning of the Inputs and Parameters in Neural
Collaborative Filtering [5.076419064097734]
入力のゼロでない要素は学習可能なパラメータであり、ユーザ/イテム埋め込みを組み合わせる際の重みを決定する。
本稿では,入力のゼロでない要素の値をニューラルネットワークパラメータと組み合わせて学習することを提案する。
論文 参考訳(メタデータ) (2022-03-14T19:47:38Z) - Statistical Mechanical Analysis of Catastrophic Forgetting in Continual
Learning with Teacher and Student Networks [5.209145866174911]
計算システムが絶えず変化する環境から学習すると、その過去の経験を急速に忘れてしまう。
教師-学生学習を用いて破滅的な忘れを解析するための理論的枠組みを提供する。
その結果,入力分布の類似度が小さく,対象関数の入出力関係が大きい場合,ネットワークは壊滅的な記憶を回避できることがわかった。
論文 参考訳(メタデータ) (2021-05-16T09:02:48Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Safety Verification of Neural Network Controlled Systems [0.0]
本稿では,ニューラルネットワーク制御システムの安全性を検証するためのシステムレベルのアプローチを提案する。
単純な動作と複雑な動作の両方をキャプチャできるコントローラのジェネリックモデルを想定します。
我々は,システム全体の到達可能な状態を正確に近似する到達可能性解析を行う。
論文 参考訳(メタデータ) (2020-11-10T15:26:38Z) - VATLD: A Visual Analytics System to Assess, Understand and Improve
Traffic Light Detection [15.36267013724161]
本稿では,自律運転アプリケーションにおける交通信号検知器の精度とロバスト性を評価・理解・改善する視覚分析システム,VATLDを提案する。
歪んだ表現学習は、人間に親しみやすい視覚的要約で人間の認知を強化するために、データ意味を抽出する。
また、視覚分析システムであるVATLDによる様々な性能改善戦略の有効性を実証し、自律運転における安全クリティカルな応用の実践的意義を示す。
論文 参考訳(メタデータ) (2020-09-27T22:39:00Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。