論文の概要: Deep Rectangling for Image Stitching: A Learning Baseline
- arxiv url: http://arxiv.org/abs/2203.03831v1
- Date: Tue, 8 Mar 2022 03:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:02:05.588818
- Title: Deep Rectangling for Image Stitching: A Learning Baseline
- Title(参考訳): 画像ストレッチのためのDeep Rectangling:学習ベースライン
- Authors: Lang Nie, Chunyu Lin, Kang Liao, Shuaicheng Liu, Yao Zhao
- Abstract要約: 我々は不規則な境界やシーンに大きな多様性を持つ最初の画像縫合整形データセットを構築した。
実験では、従来の方法よりも定量的にも質的にも優位性を示す。
- 参考スコア(独自算出の注目度): 57.76737888499145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stitched images provide a wide field-of-view (FoV) but suffer from unpleasant
irregular boundaries. To deal with this problem, existing image rectangling
methods devote to searching an initial mesh and optimizing a target mesh to
form the mesh deformation in two stages. Then rectangular images can be
generated by warping stitched images. However, these solutions only work for
images with rich linear structures, leading to noticeable distortions for
portraits and landscapes with non-linear objects. In this paper, we address
these issues by proposing the first deep learning solution to image
rectangling. Concretely, we predefine a rigid target mesh and only estimate an
initial mesh to form the mesh deformation, contributing to a compact one-stage
solution. The initial mesh is predicted using a fully convolutional network
with a residual progressive regression strategy. To obtain results with high
content fidelity, a comprehensive objective function is proposed to
simultaneously encourage the boundary rectangular, mesh shape-preserving, and
content perceptually natural. Besides, we build the first image stitching
rectangling dataset with a large diversity in irregular boundaries and scenes.
Experiments demonstrate our superiority over traditional methods both
quantitatively and qualitatively.
- Abstract(参考訳): ステッチ画像は広い視野(fov)を提供するが、不規則な境界に苦しむ。
この問題に対処するため、既存の画像リクタング手法では、初期メッシュを探索し、ターゲットメッシュを最適化して2段階のメッシュ変形を形成する。
そして、ステッチ画像に干渉して矩形画像を生成することができる。
しかし、これらの解はリッチな線形構造を持つ画像に対してのみ有効であり、非線型オブジェクトを持つポートレートやランドスケープに対して顕著な歪みをもたらす。
本稿では、画像のリタングに対する最初のディープラーニングソリューションを提案することで、これらの問題に対処する。
具体的には,硬い対象メッシュを事前に定義し,メッシュ変形を形成するための初期メッシュのみを推定し,コンパクトな一段階ソリューションに寄与する。
初期メッシュは、残差進行回帰戦略を持つ完全畳み込みネットワークを用いて予測される。
コンテンツ忠実度の高い結果を得るため,境界長方形,メッシュ形状保存,コンテンツ知覚自然を同時に促進する包括的目的関数が提案されている。
さらに、不規則な境界やシーンに大きな多様性を持つ最初の画像縫合整形データセットを構築した。
実験は従来の手法よりも定量的にも質的にも優位性を示す。
関連論文リスト
- PRS: Sharp Feature Priors for Resolution-Free Surface Remeshing [30.28380889862059]
本稿では,自動特徴検出とリメッシングのためのデータ駆動方式を提案する。
提案アルゴリズムは,Fスコアの26%,知覚値の42%がtextRMSE_textv$である。
論文 参考訳(メタデータ) (2023-11-30T12:15:45Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - RecRecNet: Rectangling Rectified Wide-Angle Images by Thin-Plate Spline
Model and DoF-based Curriculum Learning [62.86400614141706]
我々はRecRecNet(Rectangling Rectification Network)という新しい学習モデルを提案する。
我々のモデルは、ソース構造をターゲット領域に柔軟にワープし、エンドツーエンドの非教師なし変形を実現する。
実験により, 定量評価と定性評価の両面において, 比較法よりも解法の方が優れていることが示された。
論文 参考訳(メタデータ) (2023-01-04T15:12:57Z) - Deformable Surface Reconstruction via Riemannian Metric Preservation [9.74575494970697]
モノクロ画像から物体のポーズを推定することは、コンピュータビジョンの基本となる逆問題である。
本稿では,連続的な変形可能な面を画像列から推定する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T10:45:08Z) - Efficient Textured Mesh Recovery from Multiple Views with Differentiable
Rendering [8.264851594332677]
マルチビュー画像からテクスチャメッシュを復元する手法を提案する。
学習ベース多視点ステレオアルゴリズムにより予測される深度との差を最小化することにより形状形状を最適化する。
形状や色に対する暗黙的なニューラル表現とは対照的に,物体の光と反射を共同で推定する物理ベース逆レンダリング方式を導入する。
論文 参考訳(メタデータ) (2022-05-25T03:33:55Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Z2P: Instant Rendering of Point Clouds [104.1186026323896]
ニューラルネットワークを用いて点雲をレンダリングする手法を提案する。
既存のポイントレンダリング技術は、スプレイティングを使用するか、最初にレンダリング可能な表面メッシュを再構築する。
論文 参考訳(メタデータ) (2021-05-30T13:58:24Z) - Practical Wide-Angle Portraits Correction with Deep Structured Models [17.62752136436382]
本稿では,写真から視線歪みを取り除くための深層学習手法について紹介する。
入力として広角ポートレートが与えられると、LineNet、ShapeNet、トランジションモジュールからなるカスケードネットワークを構築します。
定量的評価には,ラインの整合性と面の整合性という2つの新しい指標を導入する。
論文 参考訳(メタデータ) (2021-04-26T10:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。