論文の概要: ImmerIris: A Large-Scale Dataset and Benchmark for Immersive Iris Recognition in Open Scenes
- arxiv url: http://arxiv.org/abs/2510.10113v1
- Date: Sat, 11 Oct 2025 08:43:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.790418
- Title: ImmerIris: A Large-Scale Dataset and Benchmark for Immersive Iris Recognition in Open Scenes
- Title(参考訳): ImmerIris: オープンシーンにおけるImmersive Iris認識のための大規模データセットとベンチマーク
- Authors: Yuxi Mi, Qiuyang Yuan, Zhizhou Zhong, Xuan Zhao, Jiaogen Zhou, Fubao Zhu, Jihong Guan, Shuigeng Zhou,
- Abstract要約: ImmerIrisはVRヘッドセットで収集された最大のデータセットで、564人の被験者の499,791枚の眼画像を収録している。
本稿では、最小限の調整で視線画像から学習する正規化自由パラダイムを提案する。
単純さにもかかわらず、このアプローチは正規化ベースの手法よりも一貫して優れている。
- 参考スコア(独自算出の注目度): 29.76844598690131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In egocentric applications such as augmented and virtual reality, immersive iris recognition is emerging as an accurate and seamless way to identify persons. While classic systems acquire iris images on-axis, i.e., via dedicated frontal sensors in controlled settings, the immersive setup primarily captures off-axis irises through tilt-placed headset cameras, with only mild control in open scenes. This yields unique challenges, including perspective distortion, intensified quality degradations, and intra-class variations in iris texture. Datasets capturing these challenges remain scarce. To fill this gap, this paper introduces ImmerIris, a large-scale dataset collected via VR headsets, containing 499,791 ocular images from 564 subjects. It is, to the best of current knowledge, the largest public dataset and among the first dedicated to off-axis acquisition. Based on ImmerIris, evaluation protocols are constructed to benchmark recognition methods under different challenging factors. Current methods, primarily designed for classic on-axis imagery, perform unsatisfactorily on the immersive setup, mainly due to reliance on fallible normalization. To this end, this paper further proposes a normalization-free paradigm that directly learns from ocular images with minimal adjustment. Despite its simplicity, this approach consistently outperforms normalization-based counterparts, pointing to a promising direction for robust immersive recognition.
- Abstract(参考訳): 拡張現実や仮想現実のようなエゴセントリックなアプリケーションでは、没入型虹彩認識は、人物を特定するための正確でシームレスな方法として現れている。
古典的なシステムはアイリスイメージを軸方向で取得する(例えば、制御された設定で専用の前面センサーを通して)が、没入型設定は主として傾斜配置のヘッドセットカメラを通して軸方向のアイライズを捉え、オープンなシーンでのみ軽快な制御を行う。
これにより、視点歪み、品質劣化の強化、アイリステクスチャのクラス内変化など、ユニークな課題が生まれる。
これらの課題を捉えたデータセットは依然として少ない。
このギャップを埋めるために、本稿では、564人の被験者から499,791枚の眼画像を含む、VRヘッドセットを介して収集された大規模なデータセットであるImmerIrisを紹介する。
これは、現在の知識を最大限に活用するために、最大の公開データセットであり、オフアクシス買収に特化している。
ImmerIrisに基づく評価プロトコルは,異なる難易度条件下での認識手法のベンチマークのために構築される。
現在の方法は、主に古典的なオン軸画像のために設計されており、主にフォールブル正規化に依存するため、没入的な設定で不満足に実行する。
そこで本研究では,最小限の調整で眼画像から直接学習する正規化自由パラダイムを提案する。
その単純さにもかかわらず、このアプローチは正規化ベースの手法よりも一貫して優れており、堅牢な没入型認識のための有望な方向を示している。
関連論文リスト
- Learning-Based Distance Estimation for 360° Single-Sensor Setups [11.532574301455854]
単一360度魚眼レンズカメラを用いた単眼距離推定のためのニューラルネットワークによるアプローチを提案する。
正確なレンズキャリブレーションに依存する古典的な三角法とは異なり、本手法は生の全方位入力から物体の距離を直接学習し、推定する。
論文 参考訳(メタデータ) (2025-06-25T16:26:55Z) - FRAME: Floor-aligned Representation for Avatar Motion from Egocentric Video [52.33896173943054]
ヘッドマウントのボディフェイスステレオカメラを備えたエゴセントリックなモーションキャプチャーは、VRやARアプリケーションには不可欠だ。
既存の方法は、合成事前学習と、現実の環境で滑らかで正確な予測を生成するのに苦労している。
本稿では、デバイスポーズとカメラフィードを組み合わせて、最先端のボディポーズ予測を行う、シンプルで効果的なアーキテクチャFRAMEを提案する。
論文 参考訳(メタデータ) (2025-03-29T14:26:06Z) - AlignDiff: Learning Physically-Grounded Camera Alignment via Diffusion [0.5277756703318045]
本稿では,カメラ内在パラメータと外在パラメータをジェネリック・レイ・カメラ・モデルを用いて扱う新しいフレームワークを提案する。
従来のアプローチとは異なり、AlignDiffは意味論から幾何学的特徴へ焦点を移し、局所歪みのより正確なモデリングを可能にした。
実験により,提案手法は,推定光束の角誤差を8.2度,全体のキャリブレーション精度で著しく低減し,課題のある実世界のデータセットに対する既存手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2025-03-27T14:59:59Z) - GVDepth: Zero-Shot Monocular Depth Estimation for Ground Vehicles based on Probabilistic Cue Fusion [0.0]
計量単分子深度推定の一般化は、その不適切な性質のために重要な課題となる。
本稿では,様々なカメラ設定の整合性を維持する新しい標準表現を提案する。
また,物体の大きさや垂直位置の手がかりによって推定される深度を適応的かつ確率的に融合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-08T22:04:34Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Aliasing is your Ally: End-to-End Super-Resolution from Raw Image Bursts [70.80220990106467]
本発表では,空間と時間に若干異なる視点から撮影された複数の低解像度スナップショットから高分解能画像を再構成する問題に対処する。
この問題を解決するための主な課題は、(i)入力画像とサブピクセル精度の整合性、(ii)ネイティブカメラデータに対する最大限の忠実性のための生(ノイズ)画像の扱い、(iii)タスクに適した画像事前(正規化器)を設計・学習することである。
論文 参考訳(メタデータ) (2021-04-13T13:39:43Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。