論文の概要: Object-level Geometric Structure Preserving for Natural Image Stitching
- arxiv url: http://arxiv.org/abs/2402.12677v1
- Date: Tue, 20 Feb 2024 02:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:22:16.229110
- Title: Object-level Geometric Structure Preserving for Natural Image Stitching
- Title(参考訳): 自然画像ストレッチのためのオブジェクトレベルの幾何構造
- Authors: Wenxiao Cai, Wankou Yang
- Abstract要約: 我々は、Global similarity Priorに基づく画像内のOBJectレベルの構造を保護します。
我々は、OBJ-GSPで歪みやゴーストを緩和する。
本手法は画像縫合における最先端のベンチマークを新たに確立する。
- 参考スコア(独自算出の注目度): 14.039603036741278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The topic of stitching images with globally natural structures holds
paramount significance. Current methodologies exhibit the ability to preserve
local geometric structures, yet fall short in maintaining relationships between
these geometric structures. In this paper, we endeavor to safeguard the
overall, OBJect-level structures within images based on Global Similarity
Prior, while concurrently mitigating distortion and ghosting artifacts with
OBJ-GSP. Our approach leverages the Segment Anything Model to extract geometric
structures with semantic information, enhancing the algorithm's ability to
preserve objects in a manner that aligns more intuitively with human
perception. We seek to identify spatial constraints that govern the
relationships between various geometric boundaries. Recognizing that multiple
geometric boundaries collectively define complete objects, we employ triangular
meshes to safeguard not only individual geometric structures but also the
overall shapes of objects within the images. Empirical evaluations across
multiple image stitching datasets demonstrate that our method establishes a new
state-of-the-art benchmark in image stitching. Our implementation and dataset
is publicly available at https://github.com/RussRobin/OBJ-GSP .
- Abstract(参考訳): グローバルな自然構造を持つ画像の縫い付けは重要な意味を持つ。
現在の方法論は局所幾何学的構造を保存する能力を示しているが、これらの幾何学的構造間の関係を維持するには不足している。
本稿では,グローバル類似性優先に基づく画像内のOBJectレベルの全体構造を保護するとともに,OBJ-GSPによる歪みやゴーストを同時に緩和する。
我々のアプローチは、セグメンション・アシング・モデルを利用して意味情報を持つ幾何学的構造を抽出し、人間の知覚と直感的に一致した方法でオブジェクトを保存するアルゴリズムの能力を高める。
種々の幾何学的境界間の関係を規定する空間的制約を同定する。
複数の幾何学的境界が集合的に完全なオブジェクトを定義することを認識し、個々の幾何学的構造だけでなく、画像内のオブジェクトの全体的な形状を保護するために三角形のメッシュを用いる。
複数の画像縫合データセットにまたがる経験的評価により,本手法が画像縫合における新しい最先端ベンチマークを確立することを示す。
私たちの実装とデータセットはhttps://github.com/RussRobin/OBJ-GSPで公開されています。
関連論文リスト
- Orient Anything: Learning Robust Object Orientation Estimation from Rendering 3D Models [79.96917782423219]
オリエント・アプライシング(Orient Anything)は、1つの画像でオブジェクトの向きを推定するために設計された最初のエキスパートで基礎的なモデルである。
3Dオブジェクトの前面にアノテートするパイプラインを開発することで、正確な向きのアノテーションで2Mイメージを収集する。
本モデルでは,レンダリング画像と実画像の両方において,最先端の向き推定精度を実現する。
論文 参考訳(メタデータ) (2024-12-24T18:58:43Z) - SINGAPO: Single Image Controlled Generation of Articulated Parts in Objects [20.978091381109294]
本稿では,単一画像から音声オブジェクトを生成する手法を提案する。
提案手法は,入力画像と視覚的に一致した音声オブジェクトを生成する。
実験の結果,本手法は音声によるオブジェクト生成における最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-21T20:41:32Z) - FoundPose: Unseen Object Pose Estimation with Foundation Features [11.32559845631345]
FoundPoseは、単一のRGB画像から見えないオブジェクトを6Dポーズで推定するモデルベースの手法である。
この方法は、オブジェクトやタスク固有のトレーニングを必要とせずに、3Dモデルを使って、新しいオブジェクトを素早くオンボードできる。
論文 参考訳(メタデータ) (2023-11-30T18:52:29Z) - Generative Category-Level Shape and Pose Estimation with Semantic
Primitives [27.692997522812615]
本稿では,1枚のRGB-D画像からカテゴリレベルのオブジェクト形状とポーズ推定を行う新しいフレームワークを提案する。
カテゴリ内変動に対処するために、様々な形状を統一された潜在空間にエンコードするセマンティックプリミティブ表現を採用する。
提案手法は,実世界のデータセットにおいて,SOTAのポーズ推定性能とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-10-03T17:51:54Z) - Towards Self-Supervised Category-Level Object Pose and Size Estimation [121.28537953301951]
本研究は,一深度画像からのカテゴリレベルのオブジェクトポーズとサイズ推定のための自己教師型フレームワークを提案する。
我々は、同じ形状の点雲における幾何学的整合性を利用して自己超越する。
論文 参考訳(メタデータ) (2022-03-06T06:02:30Z) - ELLIPSDF: Joint Object Pose and Shape Optimization with a Bi-level
Ellipsoid and Signed Distance Function Description [9.734266860544663]
本稿では,関節オブジェクトのポーズと形状最適化のための表現的かつコンパクトなモデルを提案する。
多視点RGB-Dカメラ観測からオブジェクトレベルのマップを推論する。
提案手法は,大規模実世界のScanNetデータセットを用いて評価し,最先端の手法と比較する。
論文 参考訳(メタデータ) (2021-08-01T03:07:31Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Scene Graph to Image Generation with Contextualized Object Layout
Refinement [92.85331019618332]
シーングラフから画像を生成する新しい手法を提案する。
提案手法では,レイアウトのカバレッジを約20ポイント向上し,オブジェクトの重複量を無視できる量に削減する。
論文 参考訳(メタデータ) (2020-09-23T06:27:54Z) - Improving Semantic Segmentation via Decoupled Body and Edge Supervision [89.57847958016981]
既存のセグメンテーションアプローチは、グローバルコンテキストをモデル化することでオブジェクトの内部の一貫性を改善すること、あるいはマルチスケールの特徴融合によって境界に沿ったオブジェクトの詳細を洗練することを目的としている。
本稿では,セマンティックセグメンテーションのための新しいパラダイムを提案する。
我々の洞察は、セマンティックセグメンテーションの魅力ある性能には、画像の高頻度と低頻度に対応するオブジェクトのテキストボディとテキストエッジを具体的にモデル化する必要があるということである。
さまざまなベースラインやバックボーンネットワークを備えた提案したフレームワークが,オブジェクト内部の一貫性とオブジェクト境界を向上させることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:11:22Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。