論文の概要: Learning Edge-Preserved Image Stitching from Large-Baseline Deep
Homography
- arxiv url: http://arxiv.org/abs/2012.06194v1
- Date: Fri, 11 Dec 2020 08:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:00:18.598563
- Title: Learning Edge-Preserved Image Stitching from Large-Baseline Deep
Homography
- Title(参考訳): 大ベースライン深部ホログラフィーによるエッジ保存画像スティッチの学習
- Authors: Lang Nie, Chunyu Lin, Kang Liao, Yao Zhao
- Abstract要約: 本稿では,大規模なベースライン深部ホログラフィモジュールとエッジ保存変形モジュールからなる画像縫合学習フレームワークを提案する。
本手法は既存の学習方法よりも優れ,最先端の従来の手法と競合する性能を示す。
- 参考スコア(独自算出の注目度): 32.28310831466225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image stitching is a classical and crucial technique in computer vision,
which aims to generate the image with a wide field of view. The traditional
methods heavily depend on the feature detection and require that scene features
be dense and evenly distributed in the image, leading to varying ghosting
effects and poor robustness. Learning methods usually suffer from fixed view
and input size limitations, showing a lack of generalization ability on other
real datasets. In this paper, we propose an image stitching learning framework,
which consists of a large-baseline deep homography module and an edge-preserved
deformation module. First, we propose a large-baseline deep homography module
to estimate the accurate projective transformation between the reference image
and the target image in different scales of features. After that, an
edge-preserved deformation module is designed to learn the deformation rules of
image stitching from edge to content, eliminating the ghosting effects as much
as possible. In particular, the proposed learning framework can stitch images
of arbitrary views and input sizes, thus contribute to a supervised deep image
stitching method with excellent generalization capability in other real images.
Experimental results demonstrate that our homography module significantly
outperforms the existing deep homography methods in the large baseline scenes.
In image stitching, our method is superior to the existing learning method and
shows competitive performance with state-of-the-art traditional methods.
- Abstract(参考訳): 画像縫合はコンピュータビジョンにおいて古典的で重要な技法であり、広い視野で画像を生成することを目的としている。
従来の手法は特徴検出に大きく依存しており、シーンの特徴が密度が高く、画像に均等に分散していることが必要であり、ゴースト効果やロバスト性に乏しい。
学習方法は、通常、固定ビューと入力サイズ制限に悩まされ、他の実際のデータセットに対する一般化能力の欠如を示す。
本稿では,大きなベースライン深部ホモグラフィモジュールとエッジ保存変形モジュールからなる画像縫合学習フレームワークを提案する。
まず,異なる特徴量で参照画像と対象画像の正確な投影変換を推定するための,大規模ベースライン深層ホログラフィーモジュールを提案する。
その後、エッジ保存変形モジュールは、画像縫合の変形規則をエッジからコンテンツへと学習し、ゴースト効果を極力排除するように設計されている。
特に,提案する学習フレームワークは,任意の視点や入力サイズの画像を縫い合わせることができ,他の実画像の一般化能力に優れた教師あり深部画像縫い法に寄与する。
実験の結果,我々のホモグラフィモジュールは,既存の深層ホモグラフィ法を大きく上回っていることがわかった。
画像ステッチでは,既存の学習方法よりも優れ,最先端の従来手法と競合する性能を示す。
関連論文リスト
- Deep ContourFlow: Advancing Active Contours with Deep Learning [3.9948520633731026]
画像分割のための教師なしとワンショットの両方のアプローチのためのフレームワークを提案する。
広範なラベル付きトレーニングデータを必要とせずに、複雑なオブジェクト境界をキャプチャできる。
これは特に、注釈の不足に直面している分野である歴史学において必要である。
論文 参考訳(メタデータ) (2024-07-15T13:12:34Z) - Curved Diffusion: A Generative Model With Optical Geometry Control [56.24220665691974]
最終シーンの外観に対する異なる光学系の影響は、しばしば見過ごされる。
本研究では,画像レンダリングに使用される特定のレンズとテキスト画像拡散モデルを密接に統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-29T13:06:48Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - RecRecNet: Rectangling Rectified Wide-Angle Images by Thin-Plate Spline
Model and DoF-based Curriculum Learning [62.86400614141706]
我々はRecRecNet(Rectangling Rectification Network)という新しい学習モデルを提案する。
我々のモデルは、ソース構造をターゲット領域に柔軟にワープし、エンドツーエンドの非教師なし変形を実現する。
実験により, 定量評価と定性評価の両面において, 比較法よりも解法の方が優れていることが示された。
論文 参考訳(メタデータ) (2023-01-04T15:12:57Z) - Generalizable Person Re-Identification via Viewpoint Alignment and
Fusion [74.30861504619851]
本研究は,3次元高密度ポーズ推定モデルとテクスチャマッピングモジュールを用いて,歩行者画像を標準視像にマッピングすることを提案する。
テクスチャマッピングモジュールの不完全性のため、標準ビュー画像は、原画像から識別的な詳細手がかりを失う可能性がある。
提案手法は,各種評価設定における既存手法よりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-12-05T16:24:09Z) - Weakly-Supervised Stitching Network for Real-World Panoramic Image
Generation [17.19847723103836]
そこで本研究では,実地真実像を必要とせずに縫合モデルを訓練するための弱教師付き学習機構を開発した。
特に, 色調補正, ワープ, ブレンディングからなり, 知覚とSSIMの損失によって訓練される。
提案アルゴリズムの有効性を実世界の2つの縫合データセットで検証した。
論文 参考訳(メタデータ) (2022-09-13T13:01:47Z) - Pixel-wise Deep Image Stitching [21.824319551526294]
画像縫いは、異なる視点から撮影された画像をより広い視野で画像に縫い付けることを目的としている。
既存の方法は、推定されたワープ関数を用いて、対象画像を基準画像にワープする。
本稿では,大視差問題に対処するため,画素ワイドワープフィールドを利用した新しい深部画像縫合フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-12T07:28:48Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - Practical Wide-Angle Portraits Correction with Deep Structured Models [17.62752136436382]
本稿では,写真から視線歪みを取り除くための深層学習手法について紹介する。
入力として広角ポートレートが与えられると、LineNet、ShapeNet、トランジションモジュールからなるカスケードネットワークを構築します。
定量的評価には,ラインの整合性と面の整合性という2つの新しい指標を導入する。
論文 参考訳(メタデータ) (2021-04-26T10:47:35Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。