論文の概要: The Distance Transform and its Computation
- arxiv url: http://arxiv.org/abs/2106.03503v1
- Date: Mon, 7 Jun 2021 10:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:41:35.859270
- Title: The Distance Transform and its Computation
- Title(参考訳): 距離変換とその計算
- Authors: Tilo Strutz
- Abstract要約: このチュートリアルでは、様々なアプローチを詳細に説明し、例を使って比較する。
このチュートリアルの目的は、任意の距離変換と正確なユークリッド距離変換の違いを明らかにすることである。
- 参考スコア(独自算出の注目度): 9.670578317106182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distance transformation is an image processing technique used for many
different applications. Related to a binary image, the general idea is to
determine the distance of all background points to the nearest object point (or
vice versa). In this tutorial, different approaches are explained in detail and
compared using examples. Corresponding source code is provided to facilitate
own investigations. A particular objective of this tutorial is to clarify the
difference between arbitrary distance transforms and exact Euclidean distance
transformations.
- Abstract(参考訳): 距離変換は、多くの異なるアプリケーションで使用される画像処理技術である。
バイナリイメージに関連して、一般的な考え方は、すべてのバックグラウンドポイントから最も近いオブジェクトポイント(またはその逆)までの距離を決定することである。
このチュートリアルでは、様々なアプローチを詳細に説明し、例を使って比較する。
ソースコードは、独自の調査を促進するために提供される。
このチュートリアルの目的は、任意の距離変換と正確なユークリッド距離変換の違いを明らかにすることである。
関連論文リスト
- Converting Depth Images and Point Clouds for Feature-based Pose
Estimation [0.0]
本稿では,従来の奥行き画像に隠された空間的細部を可視化し,深度データを画像に変換する手法を提案する。
Bearing Angleの画像と比較すると、より鮮やかでコントラストの高い画像が得られる。
論文 参考訳(メタデータ) (2023-10-23T13:29:42Z) - Learning Transformations To Reduce the Geometric Shift in Object
Detection [60.20931827772482]
画像キャプチャプロセスの変動から生じる幾何シフトに対処する。
我々は、これらのシフトを最小限に抑えるために幾何変換の集合を学習する自己学習アプローチを導入する。
我々は,カメラの視野変化(FoV)と視点変化(視点変化)の2つの異なるシフトについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:55:30Z) - A Light Touch Approach to Teaching Transformers Multi-view Geometry [80.35521056416242]
視覚変換器の多視点幾何学習を支援する「ライトタッチ」手法を提案する。
本研究では,トランスフォーマーのクロスアテンションマップの導出にエピポーラ線を用いる。
従来の方法とは異なり、我々の提案ではテスト時にカメラのポーズ情報を必要としない。
論文 参考訳(メタデータ) (2022-11-28T07:54:06Z) - Leveraging Image Matching Toward End-to-End Relative Camera Pose Regression [13.233301155616616]
本稿では,2つの画像間の相対的なポーズ回帰のための一般化可能なエンドツーエンドの深層学習手法を提案する。
従来のパイプラインにインスパイアされた本手法では,画像マッチング(IM)を,相対的ポーズ回帰のための事前学習タスクとして活用する。
提案手法をいくつかのデータセット上で評価し,従来のエンドツーエンド手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-27T22:01:47Z) - PI-Trans: Parallel-ConvMLP and Implicit-Transformation Based GAN for
Cross-View Image Translation [84.97160975101718]
本稿では,新しい並列-ConvMLPモジュールと,複数のセマンティックレベルでのインプリシット変換モジュールで構成される,新しい生成逆ネットワークPI-Transを提案する。
PI-Transは、2つの挑戦的データセットの最先端手法と比較して、大きなマージンで最も質的で定量的なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-09T10:35:44Z) - LocalTrans: A Multiscale Local Transformer Network for Cross-Resolution
Homography Estimation [52.63874513999119]
クロスレゾリューション画像アライメントは、マルチスケールギガ撮影において重要な問題である。
既存のディープ・ホモグラフィー手法は、それらの間の対応の明示的な定式化を無視し、クロスレゾリューションの課題において精度が低下する。
本稿では,マルチモーダル入力間の対応性を明確に学習するために,マルチスケール構造内に埋め込まれたローカルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:51:45Z) - TransFill: Reference-guided Image Inpainting by Merging Multiple Color
and Spatial Transformations [35.9576572490994]
本稿では,対象画像とシーン内容を共有する別のソース画像を参照して,穴を埋めるマルチホモグラフィ変換核融合法であるtransfillを提案する。
色を調整し、各ホモグラフィー歪んだソースイメージにピクセルレベルのワーピングを適用して、ターゲットとの整合性を高めることを学びます。
本手法は,多種多様なベースラインと色差にまたがる画像対の最先端性能を実現し,ユーザ提供画像対に一般化する。
論文 参考訳(メタデータ) (2021-03-29T22:45:07Z) - DA-Transformer: Distance-aware Transformer [87.20061062572391]
DA-Transformerは、実際の距離を利用することができる距離対応トランスである。
本稿では,実距離を利用した距離認識変換器であるDA-Transformerを提案する。
論文 参考訳(メタデータ) (2020-10-14T10:09:01Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z) - Fast Distance-based Anomaly Detection in Images Using an Inception-like
Autoencoder [16.157879279661362]
畳み込みオートエンコーダ(CAE)を訓練し、画像の低次元表現を抽出する。
画像の学習表現の低次元空間に距離ベースの異常検出器を用いる。
その結果,予測性能が向上した。
論文 参考訳(メタデータ) (2020-03-12T16:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。