論文の概要: End-to-end Full Projector Compensation
- arxiv url: http://arxiv.org/abs/2008.00965v3
- Date: Thu, 7 Jan 2021 18:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:34:54.867758
- Title: End-to-end Full Projector Compensation
- Title(参考訳): 終端から終端までのプロジェクター補償
- Authors: Bingyao Huang, Tao Sun, Haibin Ling
- Abstract要約: 完全なプロジェクター補償は、プロジェクター入力画像を変更して、プロジェクター表面の幾何学的および測光的乱れを補償することを目的としている。
本稿では,この2つの問題を共同で解くために,CompenNeSt++というエンド・ツー・エンドの微分可能な最初のソリューションを提案する。
- 参考スコア(独自算出の注目度): 81.19324259967742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Full projector compensation aims to modify a projector input image to
compensate for both geometric and photometric disturbance of the projection
surface. Traditional methods usually solve the two parts separately and may
suffer from suboptimal solutions. In this paper, we propose the first
end-to-end differentiable solution, named CompenNeSt++, to solve the two
problems jointly. First, we propose a novel geometric correction subnet, named
WarpingNet, which is designed with a cascaded coarse-to-fine structure to learn
the sampling grid directly from sampling images. Second, we propose a novel
photometric compensation subnet, named CompenNeSt, which is designed with a
siamese architecture to capture the photometric interactions between the
projection surface and the projected images, and to use such information to
compensate the geometrically corrected images. By concatenating WarpingNet with
CompenNeSt, CompenNeSt++ accomplishes full projector compensation and is
end-to-end trainable. Third, to improve practicability, we propose a novel
synthetic data-based pre-training strategy to significantly reduce the number
of training images and training time. Moreover, we construct the first
setup-independent full compensation benchmark to facilitate future studies. In
thorough experiments, our method shows clear advantages over prior art with
promising compensation quality and meanwhile being practically convenient.
- Abstract(参考訳): 完全なプロジェクタ補償は、投影面の幾何学的および測光的乱れを補償するためにプロジェクタ入力画像を変更することを目的としている。
伝統的な方法は通常2つの部分を別々に解き、最適でない解に悩まされる。
本稿では,この2つの問題を共同で解くために,compennest++ という,エンドツーエンドの微分可能な最初のソリューションを提案する。
まず, 画像サンプリングから直接サンプリンググリッドを学習するために, カスケードした粗粒間構造を持つ新しい幾何補正サブネットwarpingnetを提案する。
第2に,射影面と投影像との測光相互作用を捉え,その情報を用いて幾何学的に補正された画像の補正を行うため,siamese アーキテクチャで設計した compennest という新しい測光補償サブネットを提案する。
WarpingNetをCompenNeStと結合することで、CompenNeSt++は完全なプロジェクタ補償を達成し、エンドツーエンドのトレーニングが可能である。
第3に,実践性を向上させるために,トレーニング画像数とトレーニング時間を大幅に削減する,新しい合成データに基づく事前学習戦略を提案する。
さらに,今後の研究を促進するために,最初のセットアップ独立型フル補償ベンチマークを構築した。
徹底的な実験において,提案手法は,有望な補償品質と実用的有用性を有する先行技術よりも明らかな優位性を示す。
関連論文リスト
- CompenHR: Efficient Full Compensation for High-resolution Projector [68.42060996280064]
プロジェクター補償はプロジェクターカメラシステムの実用的なタスクである。
プロジェクター入力画像、名前付き補償画像を見つけることを目的としており、プロジェクターが投影されると幾何学的および測光的歪みがキャンセルされる。
最先端の手法では、ディープラーニングを使ってこの問題に対処し、低解像度のセットアップで有望なパフォーマンスを示す。
しかし、ディープラーニングを高精細なセットアップに直接適用することは、長いトレーニング時間と高いメモリコストのために現実的ではない。
論文 参考訳(メタデータ) (2023-11-22T14:13:27Z) - Revealing the preference for correcting separated aberrations in joint
optic-image design [19.852225245159598]
我々は、スマートフォンやドローンのような複雑なシステムの効率的な共同設計を実現するために、分離された収差を持つ光学を特徴付ける。
視野が大きいレンズの真の撮像手順を再現する画像シミュレーションシステムを提案する。
共同設計における分離収差補正の選好は, 縦色収差, 横色収差, 球状収差, フィールド曲率, コマの順である。
論文 参考訳(メタデータ) (2023-09-08T14:12:03Z) - Neural Projection Mapping Using Reflectance Fields [11.74757574153076]
我々は、プロジェクターを神経反射場に導入し、プロジェクターを校正し、リアルな光編集を行う。
私たちのニューラルネットワークは3つのニューラルネットワークで構成されています。
ニューラルプロジェクションマッピングは、シーンとプロジェクションイメージの共同最適化を通じて、新規でエキサイティングな下流タスクへの扉を開くと信じている。
論文 参考訳(メタデータ) (2023-06-11T05:33:10Z) - MS-PS: A Multi-Scale Network for Photometric Stereo With a New
Comprehensive Training Dataset [0.0]
光度ステレオ(PS)問題は、物体の3次元表面を再構成することである。
そこで我々は,PSのマルチスケールアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-25T14:01:54Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - Content-aware Warping for View Synthesis [110.54435867693203]
本稿では,比較的大きな近傍の画素の重みを,軽量ニューラルネットワークによる文脈情報から適応的に学習するコンテンツ認識ワープを提案する。
この学習可能なワープモジュールに基づいて、2つのソースビューから新しいビューを合成するエンド・ツー・エンドの学習ベースのフレームワークを提案する。
広いベースラインと非構造的多視点データセットを有する構造的光フィールドデータセットの実験結果から,提案手法は,定量的かつ視覚的に,最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-01-22T11:35:05Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Uncalibrated Neural Inverse Rendering for Photometric Stereo of General
Surfaces [103.08512487830669]
本稿では,測光ステレオ問題に対する無補間深層ニューラルネットワークフレームワークを提案する。
既存のニューラルネットワークベースの方法は、物体の正確な光方向または接地正則のいずれかまたは両方を必要とします。
本稿では,この問題に対する未調整の神経逆レンダリング手法を提案する。
論文 参考訳(メタデータ) (2020-12-12T10:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。