論文の概要: Understanding the Impact of Edge Cases from Occluded Pedestrians for ML
Systems
- arxiv url: http://arxiv.org/abs/2204.12402v1
- Date: Tue, 26 Apr 2022 16:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 16:06:58.720645
- Title: Understanding the Impact of Edge Cases from Occluded Pedestrians for ML
Systems
- Title(参考訳): MLシステムにおける集積歩行者のエッジケースの影響の理解
- Authors: Jens Henriksson, Christian Berger, Stig Ursing
- Abstract要約: YOLO(You-only-look-once)は、カメライメージ上のバウンディングボックス推定を通じてオブジェクトの検出と分類を提供する、最先端の知覚ニューラルネットワーク(NN)アーキテクチャである。
通常の歩行者検出と上下半身検出を比較した。
その結果, 部分的情報のみを用いる2つのNNは, フルボディNNが0.75以上である場合に, フルボディのNNとよく似た性能を示すことがわかった。
- 参考スコア(独自算出の注目度): 2.143163704217968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML)-enabled approaches are considered a substantial support
technique of detection and classification of obstacles of traffic participants
in self-driving vehicles. Major breakthroughs have been demonstrated the past
few years, even covering complete end-to-end data processing chain from sensory
inputs through perception and planning to vehicle control of acceleration,
breaking and steering. YOLO (you-only-look-once) is a state-of-the-art
perception neural network (NN) architecture providing object detection and
classification through bounding box estimations on camera images. As the NN is
trained on well annotated images, in this paper we study the variations of
confidence levels from the NN when tested on hand-crafted occlusion added to a
test set. We compare regular pedestrian detection to upper and lower body
detection. Our findings show that the two NN using only partial information
perform similarly well like the NN for the full body when the full body NN's
performance is 0.75 or better. Furthermore and as expected, the network, which
is only trained on the lower half body is least prone to disturbances from
occlusions of the upper half and vice versa.
- Abstract(参考訳): 機械学習(ml)対応のアプローチは、自動運転車における交通参加者の障害物の検出と分類の実質的な支援技術であると考えられている。
過去数年間で大きなブレークスルーが示され、感覚入力から加速、破壊、ステアリングの車両制御まで、完全なエンドツーエンドのデータ処理チェーンがカバーされた。
YOLO(You-only-look-once)は、カメライメージ上のバウンディングボックス推定を通じてオブジェクトの検出と分類を提供する、最先端の知覚ニューラルネットワーク(NN)アーキテクチャである。
本稿では,手作りオクルージョンをテストセットに加えた場合のNNからの信頼度の変化について検討する。
通常の歩行者検出と上下半身検出を比較した。
その結果, 部分的情報のみを用いる2つのNNは, フルボディNNが0.75以上である場合に, フルボディのNNとよく似た性能を示すことがわかった。
さらに、予想通り、下半身のみにトレーニングされるネットワークは、上半身の閉塞による障害や、その逆による障害がほとんどない。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Vehicle: Interfacing Neural Network Verifiers with Interactive Theorem
Provers [1.5749416770494706]
車両には、ニューラルネットワーク仕様を記述するための表現力のあるドメイン固有言語が備わっている。
同様のITPの形式化において、保守性とスケーラビリティに関する過去の問題を克服しています。
ニューラルネットワーク検証器であるMarabouをAgdaに接続し、ニューラルネットワークで操縦された車が道路を離れないことを正式に検証することで、その実用性を実証する。
論文 参考訳(メタデータ) (2022-02-10T18:09:23Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Object Detection Made Simpler by Eliminating Heuristic NMS [70.93004137521946]
単純なNMSのないエンドツーエンドのオブジェクト検出フレームワークを示す。
検出精度は元の1段検出器と比べて同等か、さらに向上した。
論文 参考訳(メタデータ) (2021-01-28T02:38:29Z) - Continuous Safety Verification of Neural Networks [1.7056768055368385]
本稿では,前回のDNN安全検証問題から修正問題設定への移行結果のアプローチについて考察する。
全体的な概念は、認識された画像から視覚的方向を決定するために、DNNコントローラを装備する1/10ドルのスケールで評価される。
論文 参考訳(メタデータ) (2020-10-12T13:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。