論文の概要: Multi-View Ensemble Learning With Missing Data: Computational Framework
and Evaluations using Novel Data from the Safe Autonomous Driving Domain
- arxiv url: http://arxiv.org/abs/2301.12592v1
- Date: Mon, 30 Jan 2023 00:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 16:12:17.712636
- Title: Multi-View Ensemble Learning With Missing Data: Computational Framework
and Evaluations using Novel Data from the Safe Autonomous Driving Domain
- Title(参考訳): 欠落データを用いたマルチビューアンサンブル学習:安全な自律運転領域からの新たなデータを用いた計算フレームワークと評価
- Authors: Ross Greer, Lulua Rakla, Akshay Gopalkrishnan, Mohan Trivedi
- Abstract要約: 並列畳み込みニューラルネットワーク間のレイトフュージョンアプローチは、最良配置の単一カメラモデルよりも優れていることを示す。
本稿では,欠落した情報を扱う手法を提案し,このレイトフュージョン手法の比較分析を付加手法に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-world applications with multiple sensors observing an event are expected
to make continuously-available predictions, even in cases where information may
be intermittently missing. We explore methods in ensemble learning and sensor
fusion to make use of redundancy and information shared between four camera
views, applied to the task of hand activity classification for autonomous
driving. In particular, we show that a late-fusion approach between parallel
convolutional neural networks can outperform even the best-placed single camera
model. To enable this approach, we propose a scheme for handling missing
information, and then provide comparative analysis of this late-fusion approach
to additional methods such as weighted majority voting and model combination
schemes.
- Abstract(参考訳): イベントを観測する複数のセンサーを持つ現実世界のアプリケーションは、情報が断続的に欠落している場合であっても、継続的に利用可能な予測を行うことが期待されている。
本研究では,4つのカメラビュー間で共有される冗長性と情報を利用したアンサンブル学習とセンサ融合の手法を,自律運転における手動動作分類の課題に適用する。
特に,並列畳み込みニューラルネットワーク間の遅延フュージョンアプローチが,単一カメラモデルにおいてさえも優れていることを示す。
このアプローチを実現するために,不足情報を扱うためのスキームを提案し,重み付き多数決やモデル組み合わせスキームなどの追加手法に対して,このレイトフュージョンアプローチの比較分析を行う。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - Continual Road-Scene Semantic Segmentation via Feature-Aligned Symmetric Multi-Modal Network [15.196758664999455]
我々は、密結合した特徴表現と対称情報共有スキームを強制することにより、マルチモーダルなセマンティックセマンティックセマンティクスのタスクを再構築する。
また,安全クリティカルな環境においても,提案手法の有効性と信頼性を実証する,アドホックなクラス増分連続学習手法も導入する。
論文 参考訳(メタデータ) (2023-08-09T04:46:16Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - MMRNet: Improving Reliability for Multimodal Object Detection and
Segmentation for Bin Picking via Multimodal Redundancy [68.7563053122698]
マルチモーダル冗長性(MMRNet)を用いた信頼度の高いオブジェクト検出・分割システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイ中のセンサ障害問題に対処する最初のシステムである。
システム全体の出力信頼性と不確実性を測定するために,すべてのモダリティからの出力を利用する新しいラベルフリーマルチモーダル整合性(MC)スコアを提案する。
論文 参考訳(メタデータ) (2022-10-19T19:15:07Z) - Safety-Enhanced Autonomous Driving Using Interpretable Sensor Fusion
Transformer [28.15612357340141]
我々は、InterFuser(Interpretable Sensor Fusion Transformer)という安全強化型自律走行フレームワークを提案する。
我々は、総合的なシーン理解と対向事象検出を実現するために、マルチモーダル・マルチビューセンサーからの情報を処理し、融合する。
私たちのフレームワークは、よりセマンティクスを提供し、安全なセット内のアクションをよりよく制約するために利用されます。
論文 参考訳(メタデータ) (2022-07-28T11:36:21Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。