論文の概要: A Unified Formula for Affine Transformations between Calibrated Cameras
- arxiv url: http://arxiv.org/abs/2602.06805v1
- Date: Fri, 06 Feb 2026 15:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.463239
- Title: A Unified Formula for Affine Transformations between Calibrated Cameras
- Title(参考訳): キャリブレーションカメラ間のアフィン変換のための統一式
- Authors: Levente Hajder,
- Abstract要約: 変換は、相対カメラポーズ、画像座標、局所表面正規化の関数であることを示す。
本稿では、2つのキャリブレーションされたビュー間の局所像パッチをマッピングするアフィン変換のためのクローズドフォーム式を導出する。
- 参考スコア(独自算出の注目度): 5.795578431511579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this technical note, we derive a closed-form expression for the affine transformation mapping local image patches between two calibrated views. We show that the transformation is a function of the relative camera pose, the image coordinates, and the local surface normal.
- Abstract(参考訳): 本稿では、2つのキャリブレーションされたビュー間の局所像パッチをマッピングするアフィン変換のためのクローズドフォーム式を導出する。
変換は、相対カメラポーズ、画像座標、局所表面正規化の関数であることを示す。
関連論文リスト
- Training-free Geometric Image Editing on Diffusion Models [53.38549950608886]
画像内の物体が再配置、再配向、あるいは再形成されるような幾何学的画像編集の課題に取り組む。
本稿では、オブジェクト変換、ソース領域のインペイント、ターゲット領域の洗練を分離する分離パイプラインを提案する。
塗装と精錬は、トレーニングフリーの拡散アプローチであるFreeFineを使って実装されている。
論文 参考訳(メタデータ) (2025-07-31T07:36:00Z) - Unified theory for joint covariance properties under geometric image transformations for spatio-temporal receptive fields according to the generalized Gaussian derivative model for visual receptive fields [0.5439020425819]
本研究では,時間的イメージ関係下での受容場からの出力と一致させるために,受容場のパラメータをどのように変換する必要があるかを示す。
導出結合共分散特性が受容場応答を関連づけたり一致させたりすることができるかを示す幾何学的解析で結論付ける。
論文 参考訳(メタデータ) (2023-11-17T14:10:55Z) - Learning Transformations To Reduce the Geometric Shift in Object
Detection [60.20931827772482]
画像キャプチャプロセスの変動から生じる幾何シフトに対処する。
我々は、これらのシフトを最小限に抑えるために幾何変換の集合を学習する自己学習アプローチを導入する。
我々は,カメラの視野変化(FoV)と視点変化(視点変化)の2つの異なるシフトについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:55:30Z) - Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Learning Local Implicit Fourier Representation for Image Warping [11.526109213908091]
画像ワーピング(LTEW)のための局所的テクスチャ推定器を提案し,次に暗黙のニューラル表現を用いて画像を連続的な形状に変形する。
我々のLTEWベースのニューラル関数は、非対称スケールSRとホモグラフィ変換の既存のワープ手法よりも優れています。
論文 参考訳(メタデータ) (2022-07-05T06:30:17Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - Image Morphing with Perceptual Constraints and STN Alignment [70.38273150435928]
本稿では,一対の入力画像で動作する条件付きGANモーフィングフレームワークを提案する。
特別なトレーニングプロトコルは、知覚的類似性損失と組み合わせてフレームのシーケンスを生成し、時間とともにスムーズな変換を促進する。
我々は、古典的かつ潜時的な空間変形技術との比較を行い、自己スーパービジョンのための一連の画像から、我々のネットワークが視覚的に楽しむモーフィング効果を生成することを実証する。
論文 参考訳(メタデータ) (2020-04-29T10:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。