論文の概要: Background-Foreground Segmentation for Interior Sensing in Automotive
Industry
- arxiv url: http://arxiv.org/abs/2109.09410v1
- Date: Mon, 20 Sep 2021 10:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:49:14.035830
- Title: Background-Foreground Segmentation for Interior Sensing in Automotive
Industry
- Title(参考訳): 自動車産業における室内センシングの背景-フォアグラウンドセグメンテーション
- Authors: Claudia Drygala, Matthias Rottmann, Hanno Gottschalk, Klaus Friedrichs
and Thomas Kurbiel
- Abstract要約: シート占有率の検出と分類は、インテリアセンシングにおいて重要な役割を担っている。
カメラを用いたインテリアセンシングにおける背景背景セグメンテーションが問題となる。
本研究では,画像分割の分野から異なる統計手法を比較し,その問題にアプローチする。
- 参考スコア(独自算出の注目度): 5.249805590164903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure safety in automated driving, the correct perception of the
situation inside the car is as important as its environment. Thus, seat
occupancy detection and classification of detected instances play an important
role in interior sensing. By the knowledge of the seat occupancy status, it is
possible to, e.g., automate the airbag deployment control. Furthermore, the
presence of a driver, which is necessary for partially automated driving cars
at the automation levels two to four can be verified. In this work, we compare
different statistical methods from the field of image segmentation to approach
the problem of background-foreground segmentation in camera based interior
sensing. In the recent years, several methods based on different techniques
have been developed and applied to images or videos from different
applications. The peculiarity of the given scenarios of interior sensing is,
that the foreground instances and the background both contain static as well as
dynamic elements. In data considered in this work, even the camera position is
not completely fixed. We review and benchmark three different methods ranging,
i.e., Gaussian Mixture Models (GMM), Morphological Snakes and a deep neural
network, namely a Mask R-CNN. In particular, the limitations of the classical
methods, GMM and Morphological Snakes, for interior sensing are shown.
Furthermore, it turns, that it is possible to overcome these limitations by
deep learning, e.g.\ using a Mask R-CNN. Although only a small amount of ground
truth data was available for training, we enabled the Mask R-CNN to produce
high quality background-foreground masks via transfer learning. Moreover, we
demonstrate that certain augmentation as well as pre- and post-processing
methods further enhance the performance of the investigated methods.
- Abstract(参考訳): 自動走行の安全性を確保するため、車内状況の正しい認識はその環境と同様に重要である。
したがって、座席の占有状況の検出と検出されたインスタンスの分類は、室内センシングにおいて重要な役割を果たす。
座席占有状況の知識により、例えばエアバッグ配置制御の自動化が可能である。
さらに、自動化レベル2〜4の部分自動化運転車に必要な運転者の存在を確認することができる。
本研究では,画像セグメンテーションの分野と異なる統計手法を比較し,カメラを用いたインテリアセンシングにおける背景セグメンテーションの問題にアプローチする。
近年,様々な技術に基づく手法が開発され,様々なアプリケーションからの画像やビデオに応用されている。
与えられた内部センシングのシナリオの特異性は、前景インスタンスと背景の両方が静的および動的要素を含むことである。
この研究で考慮されたデータでは、カメラの位置も完全に固定されていない。
本稿では,Gaussian Mixture Models(GMM),Morphological Snakes,Deep Neural Network(Mask R-CNN)の3つの異なる手法をレビューし,ベンチマークする。
特に、内部センシングのための古典的手法であるgmmと形態的ヘビの限界が示されている。
さらに、Mask R-CNNのような深層学習によってこれらの制限を克服することが可能である。
トレーニングには少量の真実データしか利用できなかったが、我々はMask R-CNNがトランスファーラーニングにより高品質な背景マスクを作成できるようになった。
さらに,前処理法と後処理法を併用することで,さらなる性能向上が期待できることを示した。
関連論文リスト
- Lidar Annotation Is All You Need [0.0]
本稿では,畳み込みニューラルネットワークを用いたマルチセンサ構成による画像分割の効率向上を目的とする。
当社のアプローチにおける重要な革新は、点雲からの粗い接地トラスマスクに対処する、マスク付き損失である。
ベンチマークデータセットに対するアプローチの実験的検証は、高品質の画像セグメンテーションモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-11-08T15:55:18Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - A Novel Driver Distraction Behavior Detection Method Based on
Self-supervised Learning with Masked Image Modeling [5.1680226874942985]
ドライバーの注意散らしは、毎年かなりの数の交通事故を引き起こし、経済的な損失と損失をもたらす。
ドライバの障害検出は、主に従来の畳み込みニューラルネットワーク(CNN)と教師あり学習法に依存している。
本稿では,運転者の気晴らし行動検出のためのマスク付き画像モデリングに基づく自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T10:53:32Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Instance Segmentation with Cross-Modal Consistency [13.524441194366544]
本稿では,複数センサモードの測定を協調的に活用するインスタンスセグメンテーションへの新しいアプローチを提案する。
本手法は, センサ・モダリティと時間領域の両面において, 現場の点に対してコントラスト学習を適用した。
この定式化は、視点の変化に不変な埋め込みを学ぶことをモデルに促すことを実証する。
論文 参考訳(メタデータ) (2022-10-14T21:17:19Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - A Sim2Real Deep Learning Approach for the Transformation of Images from
Multiple Vehicle-Mounted Cameras to a Semantically Segmented Image in Bird's
Eye View [0.0]
カメラの視点を鳥の視線(BEV)に変換すると、距離をより容易に推定できる。
本稿では,複数の車載カメラから補正された360度BEV画像を得る方法について述べる。
ニューラルネットワークのアプローチは、手動でラベル付けされたデータに頼るのではなく、実世界のデータに対してうまく一般化するように、合成データセットでトレーニングされる。
論文 参考訳(メタデータ) (2020-05-08T14:54:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。