論文の概要: Robust Multi-Modal Image Stitching for Improved Scene Understanding
- arxiv url: http://arxiv.org/abs/2312.17010v1
- Date: Thu, 28 Dec 2023 13:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 16:10:54.090097
- Title: Robust Multi-Modal Image Stitching for Improved Scene Understanding
- Title(参考訳): シーン理解のためのロバストなマルチモーダル画像スティッチ
- Authors: Aritra Dutta, Dr. G Suseela, Asmita Sood
- Abstract要約: 私たちはOpenCVのステッチモジュールをタップする、ユニークで包括的なイメージスティッチパイプラインを考案しました。
当社のアプローチでは,機能ベースのマッチング,変換推定,ブレンディング技術を統合して,上位品質のパノラマビューを実現する。
- 参考スコア(独自算出の注目度): 2.0476854378186102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal image stitching can be a difficult feat. That's why, in this
paper, we've devised a unique and comprehensive image-stitching pipeline that
taps into OpenCV's stitching module. Our approach integrates feature-based
matching, transformation estimation, and blending techniques to bring about
panoramic views that are of top-tier quality - irrespective of lighting, scale
or orientation differences between images. We've put our pipeline to the test
with a varied dataset and found that it's very effective in enhancing scene
understanding and finding real-world applications.
- Abstract(参考訳): マルチモーダル画像縫合は難しい作業である。
そこでこの論文では,OpenCVのステッチモジュールをタップする,ユニークで包括的なイメージスティッチパイプラインを考案しました。
当社のアプローチでは、機能ベースのマッチング、変換推定、ブレンディング技術を統合して、画像間の照明、スケール、方向の違いに関わらず、最上位品質のパノラマビューを実現する。
パイプラインをさまざまなデータセットでテストし、シーンの理解と実際のアプリケーション検索に非常に効果的であることに気付きました。
関連論文リスト
- ConDL: Detector-Free Dense Image Matching [2.7582789611575897]
本稿では,高密度画像の対応性を推定するためのディープラーニングフレームワークを提案する。
我々の完全畳み込みモデルは画像の高密度な特徴マップを生成し、各ピクセルは複数の画像にマッチするディスクリプタに関連付けられている。
論文 参考訳(メタデータ) (2024-08-05T18:34:15Z) - Generative Powers of Ten [60.6740997942711]
本稿では,複数の画像スケールにまたがる一貫したコンテンツを生成するために,テキスト・ツー・イメージ・モデルを用いる手法を提案する。
マルチスケール拡散サンプリングを共同で行うことで実現した。
本手法は従来の超解像法よりも深いズームレベルを実現する。
論文 参考訳(メタデータ) (2023-12-04T18:59:25Z) - Patch-Wise Self-Supervised Visual Representation Learning: A Fine-Grained Approach [4.9204263448542465]
本研究は、パッチレベルの識別を自己教師付き視覚表現学習に組み込むことにより、革新的できめ細かな次元を導入する。
それぞれのパッチは個別に拡張され、同じビュー内の他のパッチとは独立している。
我々は、拡張ビュー全体にわたって対応するパッチを見つけるための、単純で効果的なパッチマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T09:35:30Z) - Multi-Spectral Image Stitching via Spatial Graph Reasoning [52.27796682972484]
空間グラフ推論に基づくマルチスペクトル画像縫合法を提案する。
同一のビュー位置から複数スケールの補完機能をノードに埋め込む。
空間的・チャネル的次元に沿った長距離コヒーレンスを導入することにより、画素関係の相補性とチャネル相互依存性は、整列したマルチビュー特徴の再構築に寄与する。
論文 参考訳(メタデータ) (2023-07-31T15:04:52Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - Bridging the Visual Gap: Wide-Range Image Blending [16.464837892640812]
広域画像ブレンドを実現するための効果的なディープラーニングモデルを提案する。
提案手法が視覚的に魅力的な結果をもたらすことを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-28T15:07:45Z) - Learning Edge-Preserved Image Stitching from Large-Baseline Deep
Homography [32.28310831466225]
本稿では,大規模なベースライン深部ホログラフィモジュールとエッジ保存変形モジュールからなる画像縫合学習フレームワークを提案する。
本手法は既存の学習方法よりも優れ,最先端の従来の手法と競合する性能を示す。
論文 参考訳(メタデータ) (2020-12-11T08:43:30Z) - TSIT: A Simple and Versatile Framework for Image-to-Image Translation [103.92203013154403]
画像間翻訳のためのシンプルで多用途なフレームワークを提案する。
新たに提案した特徴変換を用いた2ストリーム生成モデルを提案する。
これにより、マルチスケールのセマンティック構造情報とスタイル表現を効果的に捕捉し、ネットワークに融合させることができる。
体系的な研究は、提案手法をいくつかの最先端タスク固有のベースラインと比較し、知覚的品質と定量的評価の両面での有効性を検証する。
論文 参考訳(メタデータ) (2020-07-23T15:34:06Z) - RetrieveGAN: Image Synthesis via Differentiable Patch Retrieval [76.87013602243053]
本稿では,シーン記述からイメージを抽出したパッチを参照として合成する,識別可能な検索モジュールを提案する。
提案手法が現実的かつ多様な画像を生成可能であることを示すため,広範に定量的かつ定性的な実験を行った。
論文 参考訳(メタデータ) (2020-07-16T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。