論文の概要: Gaze Preserving CycleGANs for Eyeglass Removal & Persistent Gaze
Estimation
- arxiv url: http://arxiv.org/abs/2002.02077v6
- Date: Tue, 15 Jun 2021 21:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 10:02:42.728741
- Title: Gaze Preserving CycleGANs for Eyeglass Removal & Persistent Gaze
Estimation
- Title(参考訳): 眼鏡除去・持続的視線推定のための視線保存サイクルガン
- Authors: Akshay Rangesh, Bowen Zhang and Mohan M. Trivedi
- Abstract要約: 視線方向を推定することは、理想的な条件下で運転者の状態を測定する最も明白な方法である。
厳密な照明、夜間の条件、反射眼鏡の下で単独でポーズをとることは、信頼性が悪く、誤っていることを証明できる。
提案するGaze Preserving CycleGAN (GPCycleGAN) は,顔画像から潜在的眼鏡を取り除き,運転者の視線を保護するために訓練されている。
- 参考スコア(独自算出の注目度): 8.47514372451741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A driver's gaze is critical for determining their attention, state,
situational awareness, and readiness to take over control from partially
automated vehicles. Estimating the gaze direction is the most obvious way to
gauge a driver's state under ideal conditions when limited to using
non-intrusive imaging sensors. Unfortunately, the vehicular environment
introduces a variety of challenges that are usually unaccounted for - harsh
illumination, nighttime conditions, and reflective eyeglasses. Relying on head
pose alone under such conditions can prove to be unreliable and erroneous. In
this study, we offer solutions to address these problems encountered in the
real world. To solve issues with lighting, we demonstrate that using an
infrared camera with suitable equalization and normalization suffices. To
handle eyeglasses and their corresponding artifacts, we adopt image-to-image
translation using generative adversarial networks to pre-process images prior
to gaze estimation. Our proposed Gaze Preserving CycleGAN (GPCycleGAN) is
trained to preserve the driver's gaze while removing potential eyeglasses from
face images. GPCycleGAN is based on the well-known CycleGAN approach - with the
addition of a gaze classifier and a gaze consistency loss for additional
supervision. Our approach exhibits improved performance, interpretability,
robustness and superior qualitative results on challenging real-world datasets.
- Abstract(参考訳): 運転者の視線は、注意力、状態、状況認識、部分的に自動化された車両から制御を引き継ぐ準備ができている。
視線方向の推定は、非侵入型撮像センサの使用に制限される場合、理想的な条件下で運転者の状態を計測する最も明確な方法である。
残念なことに、車両環境は、厳しい照明、夜間の条件、反射眼鏡など、通常考慮されていない様々な課題をもたらす。
このような条件下で単独でポーズをとれば、信頼性が悪く誤ったことが分かる。
本研究では,現実世界で遭遇するこれらの問題に対処するためのソリューションを提案する。
照明の課題を解決するために, 適切な等化と正規化が可能な赤外線カメラを用いた。
眼鏡とそれに対応するアーティファクトを扱うために,画像から画像への変換を生成的逆ネットワークを用いて,視線推定に先立って画像の前処理に採用する。
提案するGaze Preserving CycleGAN (GPCycleGAN) は,顔画像から潜在的眼鏡を取り除き,運転者の視線を保護するために訓練されている。
GPCycleGANはよく知られたCycleGANアプローチに基づいている。
本手法は,実世界の課題データセットの性能,解釈性,ロバスト性,質的評価に優れる。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - What Do You See in Vehicle? Comprehensive Vision Solution for In-Vehicle Gaze Estimation [18.155092199205907]
本稿では,車内視線研究を進めるための3つの新しい要素について述べる。
まず、車内視線を捉えた先駆的なデータセットであるIVGazeを紹介する。
第2に、IVGazeを利用した車内視線推定に焦点を当てた。
第3に、GazeDPTRを拡張することで、視線ゾーン分類の新しい戦略を探求する。
論文 参考訳(メタデータ) (2024-03-23T01:22:15Z) - Learning to Find Missing Video Frames with Synthetic Data Augmentation:
A General Framework and Application in Generating Thermal Images Using RGB
Cameras [0.0]
本稿では,センサフレームレートのミスマッチによるデータ不足の問題に対処する。
本研究では, 条件付き生成逆数ネットワーク(cGAN)を用いて, 合成的かつ現実的な熱画像を作成することを提案する。
論文 参考訳(メタデータ) (2024-02-29T23:52:15Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Generating Clear Images From Images With Distortions Caused by Adverse
Weather Using Generative Adversarial Networks [0.0]
本研究では,雨滴の付着による歪みを含む悪天候条件にともなう画像に対するコンピュータビジョンタスクの改善手法を提案する。
適切な生成対向ネットワークを訓練し,歪みの影響を除去するのに有効であることを示した。
論文 参考訳(メタデータ) (2022-11-01T05:02:44Z) - Thermal to Visible Image Synthesis under Atmospheric Turbulence [67.99407460140263]
バイオメトリックスや監視では、低照度と夜間の条件下での撮像に熱画像モダリティがしばしば用いられる。
このような画像システムは、しばしば大気の乱れに悩まされ、撮像された画像に激しいぼやけや変形のアーチファクトをもたらす。
熱画像を直接可視光画像に変換するエンド・ツー・エンドの再構成法を提案する。
論文 参考訳(メタデータ) (2022-04-06T19:47:41Z) - DMRVisNet: Deep Multi-head Regression Network for Pixel-wise Visibility
Estimation Under Foggy Weather [0.0]
霧は、一般的な気象の一種として、特に山岳地帯において、現実世界に頻繁に現れる。
現在の方法では、道路上の固定位置に配置されたプロの楽器を使用して視界測定を行う。
可視性を推定するために、革新的なエンドツーエンドの畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-08T13:31:07Z) - Simultaneous Face Hallucination and Translation for Thermal to Visible
Face Verification using Axial-GAN [74.22129648654783]
低分解能熱画像から熱可視面検証のタスクを紹介します。
本稿では,Axial-Generative Adversarial Network (Axial-GAN)を提案する。
論文 参考訳(メタデータ) (2021-04-13T22:34:28Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - A feature-supervised generative adversarial network for environmental
monitoring during hazy days [6.276954295407201]
本稿では,環境モニタリングのためのGAN(Generative Adversarial Network)に基づく特徴教師付き学習ネットワークを提案する。
提案手法は,合成データセットと実世界のリモートセンシング画像の両方において,最先端の手法よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2020-08-05T05:27:15Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。