論文の概要: Towards Unsupervised Eye-Region Segmentation for Eye Tracking
- arxiv url: http://arxiv.org/abs/2410.06131v1
- Date: Tue, 8 Oct 2024 15:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 11:00:50.264661
- Title: Towards Unsupervised Eye-Region Segmentation for Eye Tracking
- Title(参考訳): 視線追跡のための教師なしアイレジオンセグメンテーションに向けて
- Authors: Jiangfan Deng, Zhuang Jia, Zhaoxue Wang, Xiang Long, Daniel K. Du,
- Abstract要約: 我々は、人間の目の前兆を使い、画像から信号を抽出し、眼領域構造を示す粗い手がかりを確立する。
セグメンテーションネットワークは、各部分の正確な領域を徐々に特定するように訓練される。
実験の結果、教師なしのアプローチは、教師付き学習下での成績の90%(瞳孔と虹彩)と85%(視線領域全体)を容易に達成できることがわかった。
- 参考スコア(独自算出の注目度): 9.051786094550293
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Finding the eye and parsing out the parts (e.g. pupil and iris) is a key prerequisite for image-based eye tracking, which has become an indispensable module in today's head-mounted VR/AR devices. However, a typical route for training a segmenter requires tedious handlabeling. In this work, we explore an unsupervised way. First, we utilize priors of human eye and extract signals from the image to establish rough clues indicating the eye-region structure. Upon these sparse and noisy clues, a segmentation network is trained to gradually identify the precise area for each part. To achieve accurate parsing of the eye-region, we first leverage the pretrained foundation model Segment Anything (SAM) in an automatic way to refine the eye indications. Then, the learning process is designed in an end-to-end manner following progressive and prior-aware principle. Experiments show that our unsupervised approach can easily achieve 90% (the pupil and iris) and 85% (the whole eye-region) of the performances under supervised learning.
- Abstract(参考訳): 目を見つけて部品(例えば瞳孔と虹彩)を解析することは、画像ベースの視線追跡の必須条件であり、今日のヘッドマウントVR/ARデバイスでは欠かせないモジュールになっている。
しかし、セグメンタを訓練する典型的なルートは、面倒なハンドラベリングを必要とする。
本研究では,教師なしの方法を探究する。
まず、人間の目の前兆を利用して画像から信号を抽出し、目領域構造を示す粗い手がかりを確立する。
これらのスパースでノイズの多い手がかりに基づいて、セグメント化ネットワークをトレーニングし、各部分の正確な領域を徐々に特定する。
眼領域の正確な解析を実現するために,まず,事前訓練された基礎モデルセグメンテーション(SAM)を自動的に活用し,眼の表示を洗練させる。
そして、学習プロセスは、進歩的かつ事前認識の原則に従ってエンドツーエンドで設計される。
実験の結果、教師なしのアプローチは、教師付き学習下での成績の90%(瞳孔と虹彩)と85%(視線領域全体)を容易に達成できることがわかった。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Collaborative Feature Learning for Fine-grained Facial Forgery Detection
and Segmentation [56.73855202368894]
偽造検出に関する以前の研究は、主に顔全体に焦点を当てていた。
近年の偽造法では、重要な顔成分を編集し、他の成分をそのまま維持する手法が開発されている。
ファリシファイドコンポーネントの操作とセグメンテーションを同時に検出するための協調的特徴学習手法を提案する。
論文 参考訳(メタデータ) (2023-04-17T08:49:11Z) - A Simple Framework for Open-Vocabulary Segmentation and Detection [85.21641508535679]
我々は,異なるセグメンテーションと検出データセットから共同で学習する,シンプルなオープン語彙検出フレームワークOpenSeeDを提案する。
まず、事前学習されたテキストエンコーダを導入し、視覚概念を2つのタスクにエンコードし、それらの共通意味空間を学習する。
プレトレーニング後,本モデルでは,セグメンテーションと検出の両方において,競争力あるいは強いゼロショット転送性を示す。
論文 参考訳(メタデータ) (2023-03-14T17:58:34Z) - Multistream Gaze Estimation with Anatomical Eye Region Isolation by
Synthetic to Real Transfer Learning [24.872143206600185]
眼解剖情報を利用して視線表現を学習する新しいニューラルネットワークMSGazeNetを提案する。
当社のフレームワークは,3つの視線推定データセットにおいて,最先端の7.57%,1.85%を超えている。
論文 参考訳(メタデータ) (2022-06-18T17:57:32Z) - Point-Level Region Contrast for Object Detection Pre-Training [147.47349344401806]
本稿では,物体検出作業のための自己教師付き事前学習手法である点レベル領域コントラストを提案する。
提案手法は,異なる領域から個々の点対を直接抽出することにより,コントラスト学習を行う。
領域ごとの集約表現と比較すると,入力領域の品質の変化に対して,我々のアプローチはより堅牢である。
論文 参考訳(メタデータ) (2022-02-09T18:56:41Z) - Gaze Estimation with Eye Region Segmentation and Self-Supervised
Multistream Learning [8.422257363944295]
本稿では、視線推定のための頑健な視線表現を学習する新しいマルチストリームネットワークを提案する。
まず,目に見える眼球と虹彩をシミュレーターを用いて詳述した眼球領域マスクを含む合成データセットを作成する。
次に、U-Net型モデルを用いて視線領域分割を行い、実際の画像の視線領域マスクを生成する。
論文 参考訳(メタデータ) (2021-12-15T04:44:45Z) - Learning To Segment Dominant Object Motion From Watching Videos [72.57852930273256]
我々は,有意な移動物体セグメンテーションのための単純なフレームワークを構想する。このフレームワークは,有意なデータを必要としないし,有意な前処理や事前学習された光フローマップに依存しない。
層状画像表現に着想を得て,アフィンパラメトリックの動きに応じて画素領域をグループ化する手法を提案する。
これにより、トレーニングと推論の両方の入力として、RGBイメージペアのみを使用して、支配的なフォアグラウンドオブジェクトのセグメンテーションを学習することができる。
論文 参考訳(メタデータ) (2021-11-28T14:51:00Z) - EllSeg: An Ellipse Segmentation Framework for Robust Gaze Tracking [3.0448872422956432]
エリパースフィッティングは、瞳孔や虹彩追跡に基づくビデオオクログラフィーにおいて必須の要素である。
楕円構造を直接分割する畳み込みニューラルネットワークのトレーニングを提案する。
論文 参考訳(メタデータ) (2020-07-19T06:13:01Z) - Manifold-driven Attention Maps for Weakly Supervised Segmentation [9.289524646688244]
本稿では,視覚的に有意な領域を強化するために,多様体駆動型注意ネットワークを提案する。
提案手法は,余分な計算を必要とせずに,推論中により優れた注意マップを生成できる。
論文 参考訳(メタデータ) (2020-04-07T00:03:28Z) - Regression and Learning with Pixel-wise Attention for Retinal Fundus
Glaucoma Segmentation and Detection [3.7687214264740994]
緑内障検出のための深層学習に基づく2つの自動アルゴリズムと光ディスクとカップセグメンテーションを提案する。
我々は、注意機構を利用して、正確な予測のためにピクセルワイドな特徴を学習する。
論文 参考訳(メタデータ) (2020-01-06T23:54:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。