論文の概要: Differentiable Rendering for Synthetic Aperture Radar Imagery
- arxiv url: http://arxiv.org/abs/2204.01248v1
- Date: Mon, 4 Apr 2022 05:27:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 14:09:48.849934
- Title: Differentiable Rendering for Synthetic Aperture Radar Imagery
- Title(参考訳): 合成開口レーダ画像のための微分可能レンダリング
- Authors: Michael Wilmanski, Jonathan Tamir
- Abstract要約: 特に差別化可能なレンダリングへの関心が高まっており、最適化パイプラインの幾何学的事前と制約を明示的にモデル化することができる。
既存の微分可能レンダリングの取り組みは、電子光学センサー、特に従来のRGB画像のイメージに焦点を当ててきた。
本稿では,3次元コンピュータグラフィックスの手法とニューラルレンダリングを組み合わせた合成開口レーダ(SAR)画像の微分可能レンダリング手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There is rising interest in integrating signal and image processing pipelines
into deep learning training to incorporate more domain knowledge. This can lead
to deep neural networks that are trained more robustly and with limited data,
as well as the capability to solve ill-posed inverse problems. In particular,
there is rising interest in differentiable rendering, which allows explicitly
modeling geometric priors and constraints in the optimization pipeline using
first-order methods such as backpropagation. Existing efforts in differentiable
rendering have focused on imagery from electro-optical sensors, particularly
conventional RGB-imagery. In this work, we propose an approach for
differentiable rendering of Synthetic Aperture Radar (SAR) imagery, which
combines methods from 3D computer graphics with neural rendering. We
demonstrate the approach on the inverse graphics problem of 3D Object
Reconstruction from limited SAR imagery using high-fidelity simulated SAR data.
- Abstract(参考訳): より多くのドメイン知識を組み込むためのディープラーニングトレーニングに信号と画像処理パイプラインを統合することへの関心が高まっている。
これにより、より堅牢に、限られたデータでトレーニングされるディープニューラルネットワークと、不適切な逆問題を解く能力に繋がる可能性がある。
特に差別化可能なレンダリングへの関心が高まっており、バックプロパゲーションのような一階法を用いて最適化パイプラインの幾何学的事前および制約を明示的にモデル化することができる。
既存の微分可能レンダリングの取り組みは、電子光学センサー、特に従来のRGBイメージの画像に焦点を当ててきた。
本研究では,3次元コンピュータグラフィックスとニューラルレンダリングを組み合わせた合成開口レーダ(SAR)画像の識別可能なレンダリング手法を提案する。
高忠実度シミュレーションSARデータを用いた限られたSAR画像からの3次元オブジェクト再構成の逆画像問題に対するアプローチを示す。
関連論文リスト
- GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Learning Neural Radiance Fields from Multi-View Geometry [1.1011268090482573]
画像に基づく3次元再構成のために,多視点幾何アルゴリズムとニューラルレージアンス場(NeRF)を組み合わせたMVG-NeRF(MVG-NeRF)というフレームワークを提案する。
NeRFは暗黙の3D表現の分野に革命をもたらした。
論文 参考訳(メタデータ) (2022-10-24T08:53:35Z) - GeoNeRF: Generalizing NeRF with Geometry Priors [2.578242050187029]
ニューラルラジアンス場に基づく一般化可能なフォトリアリスティック・ノベルビュー手法GeoNeRFを提案する。
我々のアプローチは、幾何学的推論と合成という2つの主要な段階から構成される。
実験により、GeoNeRFは様々な合成および実際のデータセット上で、最先端の一般化可能なニューラルネットワークレンダリングモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-11-26T15:15:37Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。