論文の概要: View Transition based Dual Camera Image Fusion
- arxiv url: http://arxiv.org/abs/2312.11184v1
- Date: Mon, 18 Dec 2023 13:24:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 20:09:46.257909
- Title: View Transition based Dual Camera Image Fusion
- Title(参考訳): ビュー遷移に基づくデュアルカメラ画像融合
- Authors: Tiantian Cao, Xuan Dong, Chunli Peng, Zhengqing Li, Xinyu Guo, Weixin
Li
- Abstract要約: 重なり合う領域では、$bfW$と$bfT$の画像をfusingすると、より高い画質のイメージが生成される。
我々は、$bfW$と$bfT$の画像を混合ビューに変換し、それらを出力にブレンドするビュー遷移法を提案する。
- 参考スコア(独自算出の注目度): 6.385759994053152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dual camera system of wide-angle ($\bf{W}$) and telephoto ($\bf{T}$)
cameras has been widely adopted by popular phones. In the overlap region,
fusing the $\bf{W}$ and $\bf{T}$ images can generate a higher quality image.
Related works perform pixel-level motion alignment or high-dimensional feature
alignment of the $\bf{T}$ image to the view of the $\bf{W}$ image and then
perform image/feature fusion, but the enhancement in occlusion area is
ill-posed and can hardly utilize data from $\bf{T}$ images. Our insight is to
minimize the occlusion area and thus maximize the use of pixels from $\bf{T}$
images. Instead of insisting on placing the output in the $\bf{W}$ view, we
propose a view transition method to transform both $\bf{W}$ and $\bf{T}$ images
into a mixed view and then blend them into the output. The transformation ratio
is kept small and not apparent to users, and the center area of the output,
which has accumulated a sufficient amount of transformation, can directly use
the contents from the T view to minimize occlusions. Experimental results show
that, in comparison with the SOTA methods, occlusion area is largely reduced by
our method and thus more pixels of the $\bf{T}$ image can be used for improving
the quality of the output image.
- Abstract(参考訳): 広角カメラ(\bf{w}$)と望遠カメラ(\bf{t}$)のデュアルカメラシステムは、一般的な携帯電話で広く採用されている。
重なり合う領域では、$\bf{W}$と$\bf{T}$画像は、より高い画質の画像を生成することができる。
関連する作品では、$\bf{t}$画像から$\bf{w}$画像のピクセルレベルの動きアライメントまたは高次元特徴アライメントを実行し、画像/特徴融合を行うが、咬合領域の強化は不適切であり、$\bf{t}$画像からのデータを利用できない。
我々の洞察は、オクルージョン面積を最小化し、$\bf{T}$画像からのピクセルの使用を最大化することである。
出力を$\bf{w}$ビューに配置する代わりに、$\bf{w}$と$\bf{t}$の両方の画像を混合ビューに変換し、それらを出力にブレンドするビュー遷移法を提案する。
変換率を小さく保ち、ユーザには明らかにせず、十分な量の変換を蓄積した出力の中心領域は、Tビューからのコンテンツを直接使用してオクルージョンを最小化することができる。
実験結果から,SOTA法と比較してオクルージョン面積が大幅に減少し,出力画像の品質向上に$\bf{T}$画像の画素数が増えることが示唆された。
関連論文リスト
- Efficient Scale-Invariant Generator with Column-Row Entangled Pixel
Synthesis [3.222802562733787]
本研究では,空間的畳み込みや粗大な設計を使わずに,効率的かつスケール平等な新しい生成モデルを提案する。
FFHQ、LSUN-Church、MetFaces、Flickr-Sceneryなど、さまざまなデータセットの実験では、CREPSのスケール一貫性とエイリアスのない画像を合成する能力が確認されている。
論文 参考訳(メタデータ) (2023-03-24T17:12:38Z) - CoordFill: Efficient High-Resolution Image Inpainting via Parameterized
Coordinate Querying [52.91778151771145]
本稿では,近年の連続的暗黙表現の発達により,その限界を初めて破ろうとする。
実験の結果,提案手法はGTX 2080 Ti GPUを用いて2048$times$2048の画像をリアルタイムに処理できることがわかった。
論文 参考訳(メタデータ) (2023-03-15T11:13:51Z) - I$^2$SB: Image-to-Image Schr\"odinger Bridge [87.43524087956457]
Image-to-Image Schr"odinger Bridge (I$2$SB) は条件拡散モデルの新しいクラスである。
I$2$SB は、2つの与えられた分布間の非線形拡散過程を直接学習する。
I$2$SBは、より解釈可能な生成過程を持つ標準条件拡散モデルを超えることを示す。
論文 参考訳(メタデータ) (2023-02-12T08:35:39Z) - DIFF2: Differential Private Optimization via Gradient Differences for
Nonconvex Distributed Learning [58.79085525115987]
以前の研究でよく知られたユーティリティ境界は$widetilde O(d2/3/(nvarepsilon_mathrmDP)4/3)$である。
本稿では,差分プライベートフレームワークを構築した mphDIFF2 (DIFFerential private via DIFFs) という新しい差分プライベートフレームワークを提案する。
大域的な降下を持つ$mphDIFF2は$widetilde O(d2/3/(nvarepsilon_mathrmDP)4/3の効用を達成する
論文 参考訳(メタデータ) (2023-02-08T05:19:01Z) - Near Perfect GAN Inversion [17.745342857726925]
写真のほぼ完全な再構築を実現するアルゴリズムを導出する。
このアプローチは、複製したい実画像と区別できない合成画像を生成するだけでなく、これらの画像は容易に編集可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T23:58:13Z) - Enhancing variational generation through self-decomposition [0.0]
SVAE(Split Variational Autoencoder)の概念を紹介する。
ネットワークは通常の変分オートエンコーダとして訓練されており、トレーニングと再構成画像の間に負の対数損失がある。
FID測定値によると、Mnist、Cifar10、Celebaといった典型的なデータセットでテストした手法により、従来の純粋に変動するアーキテクチャを全て上回ることができる。
論文 参考訳(メタデータ) (2022-02-06T08:49:21Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - EffiScene: Efficient Per-Pixel Rigidity Inference for Unsupervised Joint
Learning of Optical Flow, Depth, Camera Pose and Motion Segmentation [43.89073423471664]
本稿では、4つの低レベル視覚サブタスクを共同学習することで、教師なしシーンフロー推定の問題に対処する。
我々の重要な洞察は、シーンの剛性は、物体の動きとシーンの深さと同じ固有の幾何学的構造を共有することである。
本稿では,効率的な関節剛性学習を実現するための新しいシーンフローフレームワークであるEffiSceneを提案する。
論文 参考訳(メタデータ) (2020-11-16T23:28:22Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z) - Exploiting context dependence for image compression with upsampling [0.8702432681310399]
アップサンプリングによる画像圧縮は、例えば、FUIFとJPEG XLの違いを符号化することで、画像解像度を順調に向上させる。
本稿では、この目的のために、シンプルな安価な汎用技術について論じる。
論文 参考訳(メタデータ) (2020-04-06T14:37:04Z) - Few-Shot Learning via Learning the Representation, Provably [115.7367053639605]
本稿では,表現学習による少数ショット学習について検討する。
1つのタスクは、ターゲットタスクのサンプルの複雑さを減らすために、$T$ソースタスクと$n_1$データを使用して表現を学習する。
論文 参考訳(メタデータ) (2020-02-21T17:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。