論文の概要: Learned Display Radiance Fields with Lensless Cameras
- arxiv url: http://arxiv.org/abs/2510.03356v1
- Date: Thu, 02 Oct 2025 23:11:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.9259
- Title: Learned Display Radiance Fields with Lensless Cameras
- Title(参考訳): レンズレスカメラを用いた学習ディスプレイ放射場
- Authors: Ziyang Chen, Yuta Itoh, Kaan Akşit,
- Abstract要約: 本研究では,レンズレスカメラとインプシットニューラル表現に基づくアルゴリズムを共同設計し,様々な視点から表示特性を捉える。
我々のパイプラインは、46.6deg X 37.6degのビューングコーンからディスプレイから放出される光電界の効率的な再構成を可能にする。
- 参考スコア(独自算出の注目度): 14.236882353249358
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Calibrating displays is a basic and regular task that content creators must perform to maintain optimal visual experience, yet it remains a troublesome issue. Measuring display characteristics from different viewpoints often requires specialized equipment and a dark room, making it inaccessible to most users. To avoid specialized hardware requirements in display calibrations, our work co-designs a lensless camera and an Implicit Neural Representation based algorithm for capturing display characteristics from various viewpoints. More specifically, our pipeline enables efficient reconstruction of light fields emitted from a display from a viewing cone of 46.6{\deg} X 37.6{\deg}. Our emerging pipeline paves the initial steps towards effortless display calibration and characterization.
- Abstract(参考訳): ディスプレイのキャリブレーションは、コンテンツクリエイターが最適なビジュアル体験を維持するために実行しなければならない基本的で定期的なタスクである。
異なる視点から表示特性を測定するには、しばしば特殊な機器と暗室が必要であるため、ほとんどのユーザーは利用できない。
ディスプレイキャリブレーションにおける特殊なハードウェア要件を回避するため,レンズレスカメラとインプリシットニューラル表現に基づくアルゴリズムを共同設計し,様々な視点から表示特性を捉える。
より具体的には、このパイプラインは46.6{\deg} X 37.6{\deg} の表示円錐から放出される光電場を効率的に再構築することができる。
当社の新たなパイプラインは、ディスプレイのキャリブレーションとキャラクタリゼーションのための最初のステップを舗装しています。
関連論文リスト
- Visual Odometry with Transformers [68.453547770334]
特徴抽出により単眼フレームのシーケンスを処理するビジュアル・オドメトリ・トランスフォーマ(VoT)を導入する。
従来の方法とは異なり、VoTは密度の高い幾何学を推定することなくカメラの動きを直接予測し、監視のためにカメラのポーズのみに依存する。
VoTは、より大きなデータセットで効果的にスケールし、より強力なトレーニング済みバックボーンの恩恵を受け、多様なカメラモーションとキャリブレーション設定を一般化し、従来のメソッドよりも3倍以上高速に動作しながらパフォーマンスを向上する。
論文 参考訳(メタデータ) (2025-10-02T17:00:14Z) - CameraVDP: Perceptual Display Assessment with Uncertainty Estimation via Camera and Visual Difference Prediction [4.2330023661329355]
視覚差分予測器を用いたカメラベース再構成パイプラインを提案する。
再構成パイプラインは、HDR画像の重ね合わせ、MTFインバージョン、ナビゲーション補正、幾何学的歪曲、ホモグラフィ変換、色補正を組み合わせたものである。
提案するCameraVDPフレームワークを,欠陥画素検出,色認識,非均一性評価の3つの応用により検証した。
論文 参考訳(メタデータ) (2025-09-10T19:13:14Z) - One More Glance with Sharp Eyes: Rethinking Lightweight Captioning as a Practical Visual Specialist [58.89538703878721]
我々はLLaMA-7Bより56倍小さい言語モデルに基づく軽量キャプションモデルを開発した。
我々のモデルは、大規模マルチモーダル・ジェネラリストに匹敵する性能を達成することができる。
シャープ・イード・リファインメント(Sharp-Eyed Refinement, シャープ・イード・リファインメント, シャープ・イード・リファインメント)を開発した。
論文 参考訳(メタデータ) (2025-08-29T09:29:27Z) - UMA: Ultra-detailed Human Avatars via Multi-level Surface Alignment [55.0783220713185]
多視点ビデオから鮮明なダイナミック性とフォトリアリスティックな外観を持つアニマタブルな人間のアバターモデルを学ぶことは、コンピュータグラフィックスとビジョンにおいて重要な基礎研究課題である。
本稿では,基本的な2次元ビデオポイントトラッカーからのガイダンスを用いて,潜時変形モデルを提案し,アニマタブルキャラクタの3次元変形を監督する。
提案手法は,先行技術に比べてレンダリング品質と幾何学的精度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2025-06-02T15:42:33Z) - Real-Time Computational Visual Aberration Correcting Display Through High-Contrast Inverse Blurring [0.0]
眼鏡やコンタクトレンズを必要とせずに屈折性視収差に対処するライブ視覚補正ディスプレイ(VCD)を開発した。
この補正は、表示画像のデコンボリューションにより、視聴者の目に関連する点拡散関数(PSF)を用いて達成する。
その結果,視覚的明瞭度は有意に向上し,構造類似度指標(SSIM)は83.04%であった。
論文 参考訳(メタデータ) (2024-12-30T11:15:45Z) - XPoint: A Self-Supervised Visual-State-Space based Architecture for Multispectral Image Registration [2.7036595757881323]
XPointは、アダプティブトレーニングと、アライメントされたマルチスペクトルデータセットの微調整のための、自己教師付き、モジュール化された画像マッチングフレームワークである。
XPointはモジュラリティと自己スーパービジョンを採用し、ベース検出器のような要素の調整を可能にしている。
XPointは、機能マッチングや画像登録タスクにおいて、最先端のメソッドを一貫して上回るか、マッチする。
論文 参考訳(メタデータ) (2024-11-11T23:12:08Z) - Perspective Fields for Single Image Camera Calibration [47.15297775014322]
画像の局所的なパースペクティブ特性をモデル化する表現として、パースペクティブフィールドを提案する。
パースペクティブフィールドは、カメラビューに関する画素ごとの情報を含み、アップベクトルと緯度値としてパラメータ化される。
我々は、パースペクティブフィールドを予測するためにニューラルネットワークを訓練し、予測されたパースペクティブフィールドを簡単にキャリブレーションパラメータに変換することができる。
論文 参考訳(メタデータ) (2022-12-06T18:59:50Z) - BuFF: Burst Feature Finder for Light-Constrained 3D Reconstruction [2.298932494750101]
我々は,超低照度条件下での視覚的再構成を向上する画像バーストを直接操作する特徴検出器を開発した。
提案手法は,マルチスケールおよびマルチモーション空間を共同で探索することにより,各バースト内における明瞭なスケールと明らかな動きのキーポイントを求める。
論文 参考訳(メタデータ) (2022-09-20T05:06:33Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。