論文の概要: elaTCSF: A Temporal Contrast Sensitivity Function for Flicker Detection and Modeling Variable Refresh Rate Flicker
- arxiv url: http://arxiv.org/abs/2503.16759v1
- Date: Fri, 21 Mar 2025 00:23:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:55:44.178505
- Title: elaTCSF: A Temporal Contrast Sensitivity Function for Flicker Detection and Modeling Variable Refresh Rate Flicker
- Title(参考訳): elaTCSF:Flicker検出のための時間コントラスト感度関数と可変リフレッシュレートFlickerのモデル化
- Authors: Yancheng Cai, Ali Bozorgian, Maliha Ashraf, Robert Wanat, Rafał K. Mantiuk,
- Abstract要約: 従来の手法では、主に高コントラスト(フルオン、フルオフ)のフリックに適合するCFF(Critical Flicker Frequency)に頼っていることが多い。
我々は、輝度、偏心、面積の影響を取り入れた新しい空間確率和モデルを導入する。
ElaTCSFは、VRヘッドセットの低パースペンスによるフレッカの予測や、フレッカフリーなVRR操作範囲の特定、照明設計におけるフレッカの感度の決定にどのように使用できるかを実証する。
- 参考スコア(独自算出の注目度): 0.6990493129893112
- License:
- Abstract: The perception of flicker has been a prominent concern in illumination and electronic display fields for over a century. Traditional approaches often rely on Critical Flicker Frequency (CFF), primarily suited for high-contrast (full-on, full-off) flicker. To tackle varying contrast flicker, the International Committee for Display Metrology (ICDM) introduced a Temporal Contrast Sensitivity Function TCSF$_{IDMS}$ within the Information Display Measurements Standard (IDMS). Nevertheless, this standard overlooks crucial parameters: luminance, eccentricity, and area. Existing models incorporating these parameters are inadequate for flicker detection, especially at low spatial frequencies. To address these limitations, we extend the TCSF$_{IDMS}$ and combine it with a new spatial probability summation model to incorporate the effects of luminance, eccentricity, and area (elaTCSF). We train the elaTCSF on various flicker detection datasets and establish the first variable refresh rate flicker detection dataset for further verification. Additionally, we contribute to resolving a longstanding debate on whether the flicker is more visible in peripheral vision. We demonstrate how elaTCSF can be used to predict flicker due to low-persistence in VR headsets, identify flicker-free VRR operational ranges, and determine flicker sensitivity in lighting design.
- Abstract(参考訳): フリックの認識は1世紀以上にわたって照明や電子表示の分野で顕著な関心を集めてきた。
従来の手法では、主に高コントラスト(フルオン、フルオフ)のフリックに適合するCFF(Critical Flicker Frequency)に頼っていることが多い。
異なるコントラストフリックに対処するため、ICDM(International Committee for Display Metrology)は、IDMS(Information Display Measurements Standard)の中で、時間的コントラスト感度関数TCSF$_{IDMS}$を導入した。
それでもこの標準は、輝度、偏心、面積といった重要なパラメータを見落としている。
これらのパラメータを組み込んだ既存のモデルは、特に低空間周波数でのフリック検出には不十分である。
これらの制約に対処するため、TCSF$_{IDMS}$を拡張し、新しい空間確率和モデルと組み合わせ、輝度、偏心性、面積(elaTCSF)の影響を組み込む。
様々なフレッカ検出データセット上でelaTCSFをトレーニングし、さらなる検証のために最初の可変リフレッシュレートフレッカ検出データセットを確立する。
さらに、周辺視においてフリックがより目に見えるかどうかという長期にわたる議論を解決することにも貢献する。
ElaTCSFは、VRヘッドセットの低パースペンスによるフレッカの予測や、フレッカフリーなVRR操作範囲の特定、照明設計におけるフレッカの感度の決定にどのように使用できるかを実証する。
関連論文リスト
- Bringing RGB and IR Together: Hierarchical Multi-Modal Enhancement for Robust Transmission Line Detection [67.02804741856512]
高速かつ高精度なTL検出のために,RGBとIRデータを統合したHMMEN(Hierarchical Multi-Modal Enhancement Network)を提案する。
提案手法では,(1)階層的RGBおよびIR特徴写像を大まかに融合・拡張するMMEB,(2)デコーダ出力とIR特徴写像の不整合を変形可能な畳み込みを利用して補正するFAB,の2つの重要な構成要素を紹介する。
論文 参考訳(メタデータ) (2025-01-25T06:21:06Z) - FALCON: Frequency Adjoint Link with CONtinuous Density Mask for Fast Single Image Dehazing [8.703680337470285]
この研究は、品質と速度の両面で最先端の性能を達成するシングルイメージデハージングシステムであるFALCONを紹介する。
本研究では, 連続密度マスクを用いた大気散乱モデルに基づいて, 基礎となるヘイズ分布を利用する。
複数の最先端手法とアブレーション解析を含む実験は、FALCONの脱ハージング品質と速度の両方における異常な性能を実証している。
論文 参考訳(メタデータ) (2024-07-01T05:16:26Z) - Harmonizing Light and Darkness: A Symphony of Prior-guided Data Synthesis and Adaptive Focus for Nighttime Flare Removal [44.35766203309201]
インセンス光源は、夜間に撮影画像にフレアを発生させることが多く、視覚的品質を劣化させ、下流の用途に悪影響を及ぼす。
効果的なフレア除去ネットワークをトレーニングするためには、信頼できるデータセットが不可欠である。
フレアの明るさが照明法則に合致するマルチフレア画像を含むフレア7K*という先行誘導型データセットを合成する。
クリーンな背景領域を適応的にマスキングし,フレアに強く影響された領域にフォーカスするモデルを支援するためのプラグイン・アンド・プレイ適応型フォーカス・モジュール (AFM) を提案する。
論文 参考訳(メタデータ) (2024-03-30T10:37:56Z) - Fisheye Camera and Ultrasonic Sensor Fusion For Near-Field Obstacle
Perception in Bird's-Eye-View [4.536942273206611]
本稿では,鳥眼ビュー(BEV)の観点からの効率的な障害物認識に適した,エンド・ツー・エンドのマルチモーダル融合モデルを提案する。
魚眼カメラは、後部障害物の定位を含む包括的サラウンドビューの知覚によく使用される。
しかし、このようなカメラの性能は、夜間の低照度、強烈な太陽の輝きにさらされた場合、著しく劣化する可能性がある。
論文 参考訳(メタデータ) (2024-02-01T14:52:16Z) - Graph-Aware Contrasting for Multivariate Time-Series Classification [50.84488941336865]
既存のコントラスト学習手法は主に、時間的拡張とコントラスト技術による時間的一貫性を達成することに焦点を当てている。
MTSデータ間の空間的整合性を考慮したグラフ認識コントラストを提案する。
提案手法は,様々なMSS分類タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-11T02:35:22Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Flare-Aware Cross-modal Enhancement Network for Multi-spectral Vehicle
Re-identification [29.48387524901101]
厳しい環境下では、RGBとNIRモダリティの非ネイティブな手がかりは、車両のランプや日光からの強いフレアによってしばしば失われる。
フレア崩壊したRGBとNIRの特徴をフレア免疫熱赤外スペクトルから誘導して適応的に復元するフレア・アウェア・クロスモーダル・エンハンスメント・ネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T04:04:24Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。