論文の概要: VIINTER: View Interpolation with Implicit Neural Representations of
Images
- arxiv url: http://arxiv.org/abs/2211.00722v1
- Date: Tue, 1 Nov 2022 19:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 12:52:31.354821
- Title: VIINTER: View Interpolation with Implicit Neural Representations of
Images
- Title(参考訳): viinter: 画像の暗黙的神経表現によるビュー補間
- Authors: Brandon Yushan Feng, Susmija Jabbireddy, Amitabh Varshney
- Abstract要約: 得られた画像の暗黙的ニューラル表現(INR)を補間して視認する手法であるVIINTERを提案する。
我々は、各画像に関連付けられた学習コードベクトルを活用し、それらのコード間の補間を行い、視点遷移を達成する。
- 参考スコア(独自算出の注目度): 6.103716315036844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present VIINTER, a method for view interpolation by interpolating the
implicit neural representation (INR) of the captured images. We leverage the
learned code vector associated with each image and interpolate between these
codes to achieve viewpoint transitions. We propose several techniques that
significantly enhance the interpolation quality. VIINTER signifies a new way to
achieve view interpolation without constructing 3D structure, estimating camera
poses, or computing pixel correspondence. We validate the effectiveness of
VIINTER on several multi-view scenes with different types of camera layout and
scene composition. As the development of INR of images (as opposed to surface
or volume) has centered around tasks like image fitting and super-resolution,
with VIINTER, we show its capability for view interpolation and offer a
promising outlook on using INR for image manipulation tasks.
- Abstract(参考訳): 本稿では,画像の暗黙的ニューラル表現(INR)を補間することで補間を観察する手法であるVIINTERを提案する。
我々は,各画像に関連付けられた学習符号ベクトルを活用し,これらの符号間の補間を行い,視点遷移を実現する。
補間品質を大幅に向上させる手法をいくつか提案する。
VIINTERは、3D構造を構築したり、カメラポーズを推定したり、ピクセル対応を計算したりすることなく、ビュー補間を実現する新しい方法を示す。
異なるタイプのカメラレイアウトとシーン構成を持つ複数のマルチビューシーンにおけるVIINTERの有効性を検証する。
画像のINR(表面や体積とは対照的に)の開発は、画像の嵌合や超解像度といったタスクを中心に行われており、VIINTERでは、画像補間機能を示し、画像操作タスクにINRを使用することに期待できる展望を提供する。
関連論文リスト
- Monocular Visual Place Recognition in LiDAR Maps via Cross-Modal State Space Model and Multi-View Matching [2.400446821380503]
我々はRGB画像とポイントクラウドの両方のディスクリプタを学習するための効率的なフレームワークを導入する。
視覚状態空間モデル(VMamba)をバックボーンとして、ピクセルビューとシーンの共同トレーニング戦略を採用している。
視覚的な3Dポイントオーバーラップ戦略は、マルチビューの監視のために、ポイントクラウドビューとRGBイメージの類似性を定量化するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T18:31:41Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Multi-Spectral Image Stitching via Spatial Graph Reasoning [52.27796682972484]
空間グラフ推論に基づくマルチスペクトル画像縫合法を提案する。
同一のビュー位置から複数スケールの補完機能をノードに埋め込む。
空間的・チャネル的次元に沿った長距離コヒーレンスを導入することにより、画素関係の相補性とチャネル相互依存性は、整列したマルチビュー特徴の再構築に寄与する。
論文 参考訳(メタデータ) (2023-07-31T15:04:52Z) - Multiview Regenerative Morphing with Dual Flows [20.062713286961326]
本稿では,Multiview Regenerative Morphingと呼ばれる新しい手法を提案する。
フォーミング過程を厳密で最適な輸送のための最適化として定式化する。
ユーザの指定した対応や2D/3D入力メッシュには依存しない。
論文 参考訳(メタデータ) (2022-08-02T07:22:48Z) - End-to-end Multi-modal Video Temporal Grounding [105.36814858748285]
ビデオから補完情報を抽出するマルチモーダルフレームワークを提案する。
我々は、外見にRGB画像、運動に光学フロー、画像構造に深度マップを採用する。
本稿では、Charades-STAおよびActivityNet Captionsデータセットの実験を行い、提案手法が最先端のアプローチに対して好適に動作することを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:10Z) - Probing Inter-modality: Visual Parsing with Self-Attention for
Vision-Language Pre-training [139.4566371416662]
Vision-Language Pre-Trainingは、画像とテキストのペアからマルチモーダル表現を学ぶことを目的としている。
CNNは、長距離依存をモデル化する際の局所受容野の弱点により、視覚的関係学習に制限がある。
論文 参考訳(メタデータ) (2021-06-25T08:04:25Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。