論文の概要: Ensemble Learning for Fusion of Multiview Vision with Occlusion and
Missing Information: Framework and Evaluations with Real-World Data and
Applications in Driver Hand Activity Recognition
- arxiv url: http://arxiv.org/abs/2301.12592v2
- Date: Fri, 29 Sep 2023 02:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 19:27:51.106771
- Title: Ensemble Learning for Fusion of Multiview Vision with Occlusion and
Missing Information: Framework and Evaluations with Real-World Data and
Applications in Driver Hand Activity Recognition
- Title(参考訳): 咬合・欠落情報を用いた多視点視の統合のためのアンサンブル学習:実世界データを用いたフレームワークとドライバハンド活動認識への応用
- Authors: Ross Greer, Mohan Trivedi
- Abstract要約: マルチセンサーフレームワークは、アンサンブル学習とセンサー融合の機会を提供する。
欠落した情報を扱うための計算手法を提案し,解析する。
並列畳み込みニューラルネットワーク間のレイトフュージョンアプローチは、最良配置の単一カメラモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-sensor frameworks provide opportunities for ensemble learning and
sensor fusion to make use of redundancy and supplemental information, helpful
in real-world safety applications such as continuous driver state monitoring
which necessitate predictions even in cases where information may be
intermittently missing. We define this problem of intermittent instances of
missing information (by occlusion, noise, or sensor failure) and design a
learning framework around these data gaps, proposing and analyzing an
imputation scheme to handle missing information. We apply these ideas to tasks
in camera-based hand activity classification for robust safety during
autonomous driving. We show that a late-fusion approach between parallel
convolutional neural networks can outperform even the best-placed single camera
model in estimating the hands' held objects and positions when validated on
within-group subjects, and that our multi-camera framework performs best on
average in cross-group validation, and that the fusion approach outperforms
ensemble weighted majority and model combination schemes.
- Abstract(参考訳): マルチセンサーフレームワークは、冗長性と補足情報を活用するためのアンサンブル学習とセンサー融合の機会を提供し、情報が断続的に欠落している場合であっても予測を必要とする連続運転状態監視のような現実世界の安全性アプリケーションに役立つ。
情報欠落(閉塞、ノイズ、センサ障害による)の断続的なインスタンスのこの問題を定義し、これらのデータギャップに関する学習フレームワークを設計し、欠落情報を扱うためのインプテーションスキームを提案し分析する。
これらのアイデアをカメラによる手動動作分類のタスクに適用し、自律運転時の堅牢な安全性を実現する。
並列畳み込みニューラルネットワーク間の遅延融通アプローチは,グループ内被検体に対する手持ち物体と位置の推定において,最良位置の単一カメラモデルにおいても優れており,マルチカメラフレームワークは,クロスグループ検証において平均で最高の性能を示し,融合アプローチがアンサンブル重み付き多数とモデル組み合わせスキームを上回っていることを示す。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - Continual Road-Scene Semantic Segmentation via Feature-Aligned Symmetric Multi-Modal Network [15.196758664999455]
我々は、密結合した特徴表現と対称情報共有スキームを強制することにより、マルチモーダルなセマンティックセマンティックセマンティクスのタスクを再構築する。
また,安全クリティカルな環境においても,提案手法の有効性と信頼性を実証する,アドホックなクラス増分連続学習手法も導入する。
論文 参考訳(メタデータ) (2023-08-09T04:46:16Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - MMRNet: Improving Reliability for Multimodal Object Detection and
Segmentation for Bin Picking via Multimodal Redundancy [68.7563053122698]
マルチモーダル冗長性(MMRNet)を用いた信頼度の高いオブジェクト検出・分割システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイ中のセンサ障害問題に対処する最初のシステムである。
システム全体の出力信頼性と不確実性を測定するために,すべてのモダリティからの出力を利用する新しいラベルフリーマルチモーダル整合性(MC)スコアを提案する。
論文 参考訳(メタデータ) (2022-10-19T19:15:07Z) - Safety-Enhanced Autonomous Driving Using Interpretable Sensor Fusion
Transformer [28.15612357340141]
我々は、InterFuser(Interpretable Sensor Fusion Transformer)という安全強化型自律走行フレームワークを提案する。
我々は、総合的なシーン理解と対向事象検出を実現するために、マルチモーダル・マルチビューセンサーからの情報を処理し、融合する。
私たちのフレームワークは、よりセマンティクスを提供し、安全なセット内のアクションをよりよく制約するために利用されます。
論文 参考訳(メタデータ) (2022-07-28T11:36:21Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。