論文の概要: Development of Context-Sensitive Formulas to Obtain Constant Luminance
Perception for a Foreground Object in Front of Backgrounds of Varying
Luminance
- arxiv url: http://arxiv.org/abs/2402.18288v1
- Date: Wed, 28 Feb 2024 12:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:07:23.331532
- Title: Development of Context-Sensitive Formulas to Obtain Constant Luminance
Perception for a Foreground Object in Front of Backgrounds of Varying
Luminance
- Title(参考訳): 変動輝度の背景における前景物体の一定輝度知覚のための文脈知覚式の開発
- Authors: Ergun Akleman and Bekir Tevfik Akgun and Adil Alpkocak
- Abstract要約: 本稿では,文脈に敏感な輝度補正式を開発するための枠組みを提案する。
我々の公式は、背景のぼやけたバージョンと混ざり合うように、前景のオブジェクトをわずかに半透明にする。
この説明を用いて、ユーザーは式の一部を変更して、知覚的に一定の輝度を得る。
- 参考スコア(独自算出の注目度): 1.6223631948455801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we present a framework for developing context-sensitive
luminance correction formulas that can produce constant luminance perception
for foreground objects. Our formulas make the foreground object slightly
translucent to mix with the blurred version of the background. This mix can
quickly produce any desired illusion of luminance in foreground objects based
on the luminance of the background. The translucency formula has only one
parameter; the relative size of the foreground object, which is a number
between zero and one. We have identified the general structure of the
translucency formulas as a power function of the relative size of the
foreground object. We have implemented a web-based interactive program in
Shadertoy. Using this program, we determined the coefficients of the polynomial
exponents of the power function. To intuitively control the coefficients of the
polynomial functions, we have used a B\'{e}zier form. Our final translucency
formula uses a quadratic polynomial and requires only three coefficients. We
also identified a simpler affine formula, which requires only two coefficients.
We made our program publicly available in Shadertoy so that anyone can access
and improve it. In this article, we also explain how to intuitively change the
polynomial part of the formula. Using our explanation, users change the
polynomial part of the formula to obtain their own perceptively constant
luminance. This can be used as a crowd-sourcing experiment for further
improvement of the formula.
- Abstract(参考訳): 本稿では,前景物体に対して一定の輝度知覚を生じるような,文脈に敏感な輝度補正式を開発するための枠組みを提案する。
我々の公式は、前景の物体をわずかに半透明にし、背景のぼやけたバージョンと混ぜる。
この混合は、背景の輝度に基づいて、フォアグラウンドオブジェクトに望まれる輝度の錯覚を素早く得る。
透過性公式は1つのパラメータしか持たず、前景オブジェクトの相対サイズはゼロと1の間の数である。
我々は,前景物体の相対的大きさのパワー関数として,透過性公式の一般構造を同定した。
我々はShadertoyでWebベースのインタラクティブプログラムを実装した。
このプログラムを用いて、パワー関数の多項式指数の係数を決定した。
多項式関数の係数を直感的に制御するために、b\'{e}zier形式を用いた。
最後の半透明式は二次多項式を使い、3つの係数しか必要としない。
また,2つの係数しか必要としない単純なアフィン式も同定した。
私たちはプログラムをShadertoyで公開し、誰でもアクセスできるようにしました。
本稿では,公式の多項式部を直感的に変化させる方法についても述べる。
この説明を用いて、ユーザは式の多項式部分を変更し、知覚的に一定の輝度を得る。
これは、公式をさらに改善するためのクラウドソーシング実験として使用できる。
関連論文リスト
- PBIR-NIE: Glossy Object Capture under Non-Distant Lighting [30.325872237020395]
グロッシーオブジェクトは自然光下での多視点入力画像から3次元再構成を行う上で重要な課題となる。
PBIR-NIEは, 物体の形状, 材料特性, 周囲の照明を均等に捉えるために設計された逆レンダリングフレームワークである。
論文 参考訳(メタデータ) (2024-08-13T13:26:24Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [62.13932669494098]
本稿では,3次元ガウス表現を用いた3次元ガウス逆レンダリング(GIR)手法を提案する。
最短固有ベクトルを用いて各3次元ガウスの正規性を計算する。
我々は3次元ガウシアン毎に方向対応の放射光を格納し、多重バウンス光輸送を近似するために二次照明をアンタングルするために、効率的なボクセルベースの間接照明追跡方式を採用する。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - NeuS-PIR: Learning Relightable Neural Surface using Pre-Integrated Rendering [23.482941494283978]
本稿では,マルチビュー画像やビデオから可照性神経表面を復元するNeuS-PIR法を提案する。
NeRFや離散メッシュに基づく手法とは異なり,提案手法は暗黙のニューラルサーフェス表現を用いて高品質な幾何学を再構築する。
本手法は,現代のグラフィックスエンジンとシームレスに統合可能なリライトなどの高度なアプリケーションを実現する。
論文 参考訳(メタデータ) (2023-06-13T09:02:57Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - NDJIR: Neural Direct and Joint Inverse Rendering for Geometry, Lights,
and Materials of Real Object [5.665283675533071]
我々はニューラルダイレクトおよびジョイントリバースレンダリング(NDJIR)を提案する。
提案手法は, 実際のオブジェクトに対して, フォトグラム設定で意味論的に分解することができる。
論文 参考訳(メタデータ) (2023-02-02T13:21:03Z) - PaletteNeRF: Palette-based Appearance Editing of Neural Radiance Fields [60.66412075837952]
本稿では,3次元色分解に基づくニューラルラジアンスフィールド(NeRF)の出現編集手法であるPaletteNeRFを提案する。
提案手法は,各3次元点の出現を,パレットベースによる線形結合に分解する。
我々は、セマンティック・アウェアな外観編集のためのセマンティック機能を圧縮したフレームワークを拡張した。
論文 参考訳(メタデータ) (2022-12-21T00:20:01Z) - Hierarchical Vectorization for Portrait Images [12.32304366243904]
本稿では,画像を自動的に3階層の階層表現に変換するベクトル化手法を提案する。
基層は、鮮やかな幾何学的特徴と低周波色を特徴付けるスパース拡散曲線からなる。
中層は、仕様のハイライトと影を大きく編集可能なポアソン領域(PR)にエンコードし、ユーザーは直接照明を調整できる。
トップレベルには、高周波残基のための2種類のピクセルサイズのPRと、ピンプや色素化などの細部が含まれている。
論文 参考訳(メタデータ) (2022-05-24T07:58:41Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - PhySG: Inverse Rendering with Spherical Gaussians for Physics-based
Material Editing and Relighting [60.75436852495868]
本稿では、RGB入力画像からジオメトリ、マテリアル、イルミネーションをゼロから再構築する逆レンダリングパイプラインPhySGを紹介します。
我々は合成データと実データの両方を用いて,新しい視点のレンダリングを可能にするだけでなく,物質や照明の物理ベースの外観編集を可能にすることを実証した。
論文 参考訳(メタデータ) (2021-04-01T17:59:02Z) - Efficient and Differentiable Shadow Computation for Inverse Problems [64.70468076488419]
微分可能幾何計算は画像に基づく逆問題に対する関心が高まっている。
微分可能な可視性とソフトシャドウ計算のための効率的かつ効率的なアプローチを提案する。
定式化は微分可能であるため, テクスチャ, 照明, 剛体ポーズ, 画像からの変形回復などの逆問題を解くために使用できる。
論文 参考訳(メタデータ) (2021-04-01T09:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。