論文の概要: AdaInt: Learning Adaptive Intervals for 3D Lookup Tables on Real-time
Image Enhancement
- arxiv url: http://arxiv.org/abs/2204.13983v1
- Date: Fri, 29 Apr 2022 10:16:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 14:40:08.793687
- Title: AdaInt: Learning Adaptive Intervals for 3D Lookup Tables on Real-time
Image Enhancement
- Title(参考訳): AdaInt:リアルタイム画像強調による3次元ルックアップテーブルの適応間隔学習
- Authors: Canqian Yang, Meiguang Jin, Xu Jia, Yi Xu, Ying Chen
- Abstract要約: AdaIntは3次元カラー空間における非一様サンプリング間隔を適応的に学習することで、より柔軟なサンプリングポイント割り当てを実現する新しいメカニズムである。
AdaIntは3D LUT方式のコンパクトで効率的なプラグアンドプレイモジュールとして実装できる。
- 参考スコア(独自算出の注目度): 28.977992864519948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 3D Lookup Table (3D LUT) is a highly-efficient tool for real-time image
enhancement tasks, which models a non-linear 3D color transform by sparsely
sampling it into a discretized 3D lattice. Previous works have made efforts to
learn image-adaptive output color values of LUTs for flexible enhancement but
neglect the importance of sampling strategy. They adopt a sub-optimal uniform
sampling point allocation, limiting the expressiveness of the learned LUTs
since the (tri-)linear interpolation between uniform sampling points in the LUT
transform might fail to model local non-linearities of the color transform.
Focusing on this problem, we present AdaInt (Adaptive Intervals Learning), a
novel mechanism to achieve a more flexible sampling point allocation by
adaptively learning the non-uniform sampling intervals in the 3D color space.
In this way, a 3D LUT can increase its capability by conducting dense sampling
in color ranges requiring highly non-linear transforms and sparse sampling for
near-linear transforms. The proposed AdaInt could be implemented as a compact
and efficient plug-and-play module for a 3D LUT-based method. To enable the
end-to-end learning of AdaInt, we design a novel differentiable operator called
AiLUT-Transform (Adaptive Interval LUT Transform) to locate input colors in the
non-uniform 3D LUT and provide gradients to the sampling intervals. Experiments
demonstrate that methods equipped with AdaInt can achieve state-of-the-art
performance on two public benchmark datasets with a negligible overhead
increase. Our source code is available at https://github.com/ImCharlesY/AdaInt.
- Abstract(参考訳): 3Dルックアップテーブル(3D LUT)はリアルタイム画像強調タスクのための高効率ツールであり、離散化された3D格子にわずかにサンプリングすることで、非線形な3D色変換をモデル化する。
従来の研究は、フレキシブルエンハンスメントのためのLUTの画像適応出力カラー値の学習に取り組んできたが、サンプリング戦略の重要性は無視されている。
彼らは、LUT変換における一様サンプリング点間の(トリ-)線形補間が、色変換の局所的非線形性をモデル化できないため、学習したLUTの表現性を制限し、準最適サンプリング点割り当てを採用する。
AdaInt(Adaptive Intervals Learning)は,3次元カラー空間における非一様サンプリング間隔を適応的に学習することにより,より柔軟なサンプリングポイント割り当てを実現する機構である。
このようにして、3D LUTは、高非線形変換を必要とする色域の高密度サンプリングと、近線形変換のためのスパースサンプリングを行うことで、その能力を高めることができる。
提案したAdaIntは、3D LUT方式のコンパクトで効率的なプラグアンドプレイモジュールとして実装できる。
AdaIntのエンドツーエンド学習を可能にするために、AiLUT変換(Adaptive Interval LUT Transform)と呼ばれる新しい微分演算子を設計し、非一様3D LUTの入力色を特定し、サンプリング間隔の勾配を与える。
実験により、AdaIntを組み込んだメソッドは、2つの公開ベンチマークデータセットで最新性能を達成でき、オーバーヘッドは無視できる。
ソースコードはhttps://github.com/ImCharlesY/AdaInt.comで公開されています。
関連論文リスト
- VividDreamer: Towards High-Fidelity and Efficient Text-to-3D Generation [69.68568248073747]
拡散に基づく3次元生成タスクにおいて, ポーズ依存型連続蒸留サンプリング (PCDS) を提案する。
PCDSは拡散軌道内でポーズ依存整合関数を構築し、最小サンプリングステップで真の勾配を近似することができる。
そこで我々は,まず1ステップのPCDSを用いて3Dオブジェクトの基本構造を作成し,さらに徐々にPCDSのステップを拡大して細かな細部を生成する,粗大な最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:21:52Z) - Tetrahedron Splatting for 3D Generation [39.24591650300784]
Tetrahedron Splatting (TeT-Splatting) は最適化時の容易な収束、正確なメッシュ抽出、リアルタイムレンダリングをサポートする。
メッシュ抽出なしで表現をトレーニングできるため、最適化プロセスの収束が容易になります。
論文 参考訳(メタデータ) (2024-06-03T17:56:36Z) - IPoD: Implicit Field Learning with Point Diffusion for Generalizable 3D Object Reconstruction from Single RGB-D Images [50.4538089115248]
シングルビューRGB-D画像からの3Dオブジェクトの汎用化は依然として難しい課題である。
本稿では,暗黙の場学習と点拡散を調和させる新しい手法IPoDを提案する。
CO3D-v2データセットによる実験では、IPoDの優位性が確認され、Fスコアは7.8%、チャンファー距離は28.6%向上した。
論文 参考訳(メタデータ) (2024-03-30T07:17:37Z) - DeepMIF: Deep Monotonic Implicit Fields for Large-Scale LiDAR 3D Mapping [46.80755234561584]
最近の学習ベース手法は,3次元シーンの表面を近似するために,ニューラル暗黙表現と最適化可能な特徴グリッドを統合している。
この作業では、LiDARデータを正確にフィッティングすることから離れ、代わりにネットワークが3D空間で定義された非メトリックモノトニック暗黙フィールドを最適化する。
提案アルゴリズムは,Mai City, Newer College, KITTIベンチマークで得られた複数の量的および知覚的測定値と視覚的結果を用いて,高品質な高密度3Dマッピング性能を実現する。
論文 参考訳(メタデータ) (2024-03-26T09:58:06Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - pixelSplat: 3D Gaussian Splats from Image Pairs for Scalable Generalizable 3D Reconstruction [26.72289913260324]
pixelSplatは、画像のペアから3次元ガウスプリミティブによってパラメータ化された3次元放射界の再構成を学ぶフィードフォワードモデルである。
我々のモデルは、スケーラブルなトレーニングのためのリアルタイム・メモリ効率のレンダリングと、推論時の高速な3次元再構成を特徴としている。
論文 参考訳(メタデータ) (2023-12-19T17:03:50Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [94.47518916521065]
カラーフィールドを2次元の鮮明なアグリゲーションに置き換えることを提案する。
歪み効果を回避し、簡便な編集を容易にするため、3Dの点をテクスチャルックアップのために2Dピクセルにマッピングする投影場を標準画像に補完する。
私たちの表現はAGAPと呼ばれ、再最適化を必要とせず、様々な3D編集方法(スタイル化、インタラクティブな描画、コンテンツ抽出など)をうまくサポートしています。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - Mip-Splatting: Alias-free 3D Gaussian Splatting [52.366815964832426]
3D Gaussian Splattingは素晴らしいビュー合成結果を示し、高い忠実度と効率を実現した。
ストロングアーティファクトは、サンプリングレート、例えば焦点距離やカメラ距離を変えることで観測することができる。
この現象の原因は,3次元周波数制約の欠如と2次元拡張フィルタの利用によると考えられる。
論文 参考訳(メタデータ) (2023-11-27T13:03:09Z) - SepLUT: Separable Image-adaptive Lookup Tables for Real-time Image
Enhancement [21.963622337032344]
上記の制限に対処するため、SepLUT(分離画像適応ルックアップテーブル)を提案する。
具体的には、単一色変換を1Dおよび3D LUTとしてインスタンス化されたコンポーネント非依存およびコンポーネント関連サブ変換のカスケードに分離する。
このように、2つのサブ変換の能力は相互に促進され、3D LUTは色成分を混合する能力を補完する。
論文 参考訳(メタデータ) (2022-07-18T02:27:19Z) - VoxGRAF: Fast 3D-Aware Image Synthesis with Sparse Voxel Grids [42.74658047803192]
最先端の3D認識生成モデルは座標に基づくパラメータ化3Dラディアンス場に依存している。
既存のアプローチでは、しばしば解像度の低い特徴写像をレンダリングし、それをアップサンプリングネットワークで処理して最終的な画像を得る。
既存の手法とは対照的に,本手法では完全な3Dシーンを生成するために,単一の前方通過しか必要としない。
論文 参考訳(メタデータ) (2022-06-15T17:44:22Z) - SeqXY2SeqZ: Structure Learning for 3D Shapes by Sequentially Predicting
1D Occupancy Segments From 2D Coordinates [61.04823927283092]
本稿では,各2次元位置における関数の出力が内部の線分列である2次元関数を用いて3次元形状を表現することを提案する。
本研究では,SeqXY2SeqZと呼ばれるセック2Seqモデルを用いて,2つの任意の軸に沿った2次元座標列から3つの軸に沿った1次元位置の列への写像を学習する手法を提案する。
実験の結果,SeqXY2SeqZは広く使用されているベンチマークで最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-12T00:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。