論文の概要: Alignment-free HDR Deghosting with Semantics Consistent Transformer
- arxiv url: http://arxiv.org/abs/2305.18135v1
- Date: Mon, 29 May 2023 15:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:42:59.867360
- Title: Alignment-free HDR Deghosting with Semantics Consistent Transformer
- Title(参考訳): セマンティクス整合トランスフォーマによるアライメントフリーhdrデグホスト
- Authors: Steven Tel, Zongwei Wu, Yulun Zhang, Barth\'el\'emy Heyrman, C\'edric
Demonceaux, Radu Timofte, Dominique Ginhac
- Abstract要約: 高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
- 参考スコア(独自算出の注目度): 72.96610856935759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High dynamic range (HDR) imaging aims to retrieve information from multiple
low-dynamic range inputs to generate realistic output. The essence is to
leverage the contextual information, including both dynamic and static
semantics, for better image generation. Existing methods often focus on the
spatial misalignment across input frames caused by the foreground and/or camera
motion. However, there is no research on jointly leveraging the dynamic and
static context in a simultaneous manner. To delve into this problem, we propose
a novel alignment-free network with a Semantics Consistent Transformer (SCTNet)
with both spatial and channel attention modules in the network. The spatial
attention aims to deal with the intra-image correlation to model the dynamic
motion, while the channel attention enables the inter-image intertwining to
enhance the semantic consistency across frames. Aside from this, we introduce a
novel realistic HDR dataset with more variations in foreground objects,
environmental factors, and larger motions. Extensive comparisons on both
conventional datasets and ours validate the effectiveness of our method,
achieving the best trade-off on the performance and the computational cost.
- Abstract(参考訳): 高ダイナミックレンジイメージング(HDR)は、複数の低ダイナミックレンジ入力から情報を取得し、現実的な出力を生成することを目的としている。
本質的には、動的セマンティクスと静的セマンティクスの両方を含むコンテキスト情報を活用して、画像生成を改善する。
既存の手法では、前景やカメラの動きによる入力フレーム間の空間的不一致にしばしば焦点が当てられている。
しかし,動的コンテキストと静的コンテキストを同時に活用する研究は行われていない。
そこで本研究では,ネットワーク内の空間的およびチャネル的注意モジュールを併せ持つ,意味的一貫性を持つトランスフォーマー(sctnet)を用いたアライメントフリーネットワークを提案する。
空間的注意は動的動きをモデル化するための画像内相関に対処することを目的としており、チャネル的注意は画像間干渉を可能にし、フレーム間のセマンティック一貫性を高める。
これとは別に、前景の物体、環境要因、より大きな動きのバリエーションを持つ新しいリアルなHDRデータセットを導入する。
従来のデータセットと我々のデータの比較は,提案手法の有効性を検証し,性能と計算コストのトレードオフを最大化している。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - DyBluRF: Dynamic Neural Radiance Fields from Blurry Monocular Video [18.424138608823267]
動きのぼかしに影響を受ける単眼ビデオから鋭い新しいビューを合成する動的放射場アプローチであるDyBluRFを提案する。
入力画像中の動きのぼかしを考慮し、シーン内のカメラ軌跡とオブジェクト離散コサイン変換(DCT)トラジェクトリを同時にキャプチャする。
論文 参考訳(メタデータ) (2024-03-15T08:48:37Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - Ghost-free High Dynamic Range Imaging via Hybrid CNN-Transformer and
Structure Tensor [12.167049432063132]
本稿では,ゴーストフリーなHDR画像を生成するために,畳み込みエンコーダとトランスフォーマーデコーダを組み合わせたハイブリッドモデルを提案する。
エンコーダでは、マルチスケール機能を最適化するために、コンテキスト集約ネットワークと非ローカルアテンションブロックが採用されている。
Swin Transformer に基づくデコーダを用いて,提案モデルの再構成性能を向上させる。
論文 参考訳(メタデータ) (2022-12-01T15:43:32Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - Motion-aware Dynamic Graph Neural Network for Video Compressive Sensing [14.67994875448175]
ビデオスナップショットイメージング(SCI)は、2D検出器を使用してシーケンシャルなビデオフレームをキャプチャし、それらを1つの測定値に圧縮する。
既存の再建手法の多くは、長距離空間および時間的依存関係を効率的に捉えることができない。
グラフニューラルネットワーク(GNN)に基づくフレキシブルでロバストなアプローチを提案し,距離に関わらず,空間と時間における画素間の非局所的相互作用を効率的にモデル化する。
論文 参考訳(メタデータ) (2022-03-01T12:13:46Z) - FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow [17.040818114071833]
ダイナミック/静的セグメンテーションとカメラのエゴモーション推定を同時に実現する新しいRGB-D SLAMソリューションを提案する。
我々の新しい特徴は、RGB-D点雲のダイナミックセマンティクスを強調するために光学フロー残基を使うことである。
論文 参考訳(メタデータ) (2020-03-11T04:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。