論文の概要: SpatioTemporal Difference Network for Video Depth Super-Resolution
- arxiv url: http://arxiv.org/abs/2508.01259v1
- Date: Sat, 02 Aug 2025 08:18:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.790261
- Title: SpatioTemporal Difference Network for Video Depth Super-Resolution
- Title(参考訳): ビデオ深度超解像のための時空間差ネットワーク
- Authors: Zhengxue Wang, Yuan Wu, Xiang Li, Zhiqiang Yan, Jian Yang,
- Abstract要約: ビデオ深度超解像は、明らかに長い尾の分布の影響を受けている。
本研究では,空間差分枝と時間差分枝の2つのコア分岐からなる新しい時空間差分ネットワーク(STDNet)を提案する。
空間差分枝では,空間非平滑領域における長い尾の問題を緩和する空間差分機構を導入する。
時間差分枝では、隣接するRGBおよび深度フレームから現在の深度フレームへの時間差情報を優先的に伝播する時間差分戦略を設計する。
- 参考スコア(独自算出の注目度): 21.706092326422255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth super-resolution has achieved impressive performance, and the incorporation of multi-frame information further enhances reconstruction quality. Nevertheless, statistical analyses reveal that video depth super-resolution remains affected by pronounced long-tailed distributions, with the long-tailed effects primarily manifesting in spatial non-smooth regions and temporal variation zones. To address these challenges, we propose a novel SpatioTemporal Difference Network (STDNet) comprising two core branches: a spatial difference branch and a temporal difference branch. In the spatial difference branch, we introduce a spatial difference mechanism to mitigate the long-tailed issues in spatial non-smooth regions. This mechanism dynamically aligns RGB features with learned spatial difference representations, enabling intra-frame RGB-D aggregation for depth calibration. In the temporal difference branch, we further design a temporal difference strategy that preferentially propagates temporal variation information from adjacent RGB and depth frames to the current depth frame, leveraging temporal difference representations to achieve precise motion compensation in temporal long-tailed areas. Extensive experimental results across multiple datasets demonstrate the effectiveness of our STDNet, outperforming existing approaches.
- Abstract(参考訳): 深度超解像は目覚ましい性能を達成し、多フレーム情報の取り込みにより再現性はさらに向上した。
それにもかかわらず、統計的分析により、ビデオ深度超解像は明らかに長い尾の分布に影響され、主に空間的非滑らかな領域と時間的変動帯に現れる。
これらの課題に対処するために、空間差分枝と時間差分枝という2つのコアブランチからなる新しい時空間差分ネットワーク(STDNet)を提案する。
空間差分枝では,空間非平滑領域における長い尾の問題を緩和する空間差分機構を導入する。
この機構は、RGB特徴を学習空間差分表現と動的に整合させ、深度校正のためのフレーム内RGB-Dアグリゲーションを可能にする。
時間差分枝では、隣接RGBおよび深度フレームから現在の深度フレームへの時間変化情報を優先的に伝播する時間差分戦略を設計し、時間差分表現を活用して時間長領域における正確な動き補償を実現する。
複数のデータセットにわたる大規模な実験結果から、STDNetの有効性が示され、既存のアプローチよりも優れています。
関連論文リスト
- Wavelet-Guided Dual-Frequency Encoding for Remote Sensing Change Detection [67.84730634802204]
リモートセンシング画像の変化検出は,自然災害監視,都市拡張追跡,インフラ管理など,さまざまな工学的応用において重要な役割を担っている。
既存のほとんどの手法は空間領域モデリングに依存しており、特徴表現の限られた多様性は微妙な変化領域の検出を妨げる。
本研究では、特にウェーブレット領域における周波数領域の特徴モデリングが周波数成分の微細な違いを増幅し、空間領域において捉えにくいエッジ変化の知覚を高めることを観察する。
論文 参考訳(メタデータ) (2025-08-07T11:14:16Z) - OptiCorNet: Optimizing Sequence-Based Context Correlation for Visual Place Recognition [2.3093110834423616]
本稿では,新しいシーケンスモデリングフレームワークOptiCorNetを提案する。
空間的特徴抽出と時間的差分を微分可能でエンドツーエンドのトレーニング可能なモジュールに統一する。
本手法は,季節的・視点的な変化に挑戦し,最先端のベースラインよりも優れる。
論文 参考訳(メタデータ) (2025-07-19T04:29:43Z) - Long-Term Invariant Local Features via Implicit Cross-Domain
Correspondences [79.21515035128832]
我々は、様々なドメイン変更の下で、現在の最先端特徴抽出ネットワークの性能を徹底的に分析する。
我々は、新しいデータ中心方式、Implicit Cross-Domain Correspondences (iCDC)を提案する。
iCDCは複数のニューラル・ラジアンス・フィールドで同じ環境を表し、それぞれが個々の視覚領域の下にシーンを適合させる。
論文 参考訳(メタデータ) (2023-11-06T18:53:01Z) - Local-Global Temporal Difference Learning for Satellite Video Super-Resolution [53.03380679343968]
本稿では,時間的差分を効果的かつ効果的な時間的補償に利用することを提案する。
フレーム内における局所的・大域的時間的情報を完全に活用するために,短期・長期的時間的相違を体系的にモデル化した。
5つの主流ビデオ衛星に対して行われた厳密な客観的および主観的評価は、我々の手法が最先端のアプローチに対して好適に機能することを実証している。
論文 参考訳(メタデータ) (2023-04-10T07:04:40Z) - DCANet: Differential Convolution Attention Network for RGB-D Semantic
Segmentation [2.2032272277334375]
深度データに対する幾何情報と局所範囲相関を考慮した画素差分畳み込みアテンション(DCA)モジュールを提案する。
DCAを拡張して、長距離コンテキスト依存を伝播する差分畳み込み注意(EDCA)をアンサンブルする。
DCAとEDCAで構築された2分岐ネットワークである差分畳み込みネットワーク(DCANet)は、2モーダルデータのローカルおよびグローバルな情報を融合するために提案されている。
論文 参考訳(メタデータ) (2022-10-13T05:17:34Z) - On Robust Cross-View Consistency in Self-Supervised Monocular Depth Estimation [56.97699793236174]
本論文では,2種類の堅牢なクロスビュー整合性について検討する。
深度特徴空間と3次元ボクセル空間の時間的コヒーレンスを自己教師付き単眼深度推定に利用した。
いくつかのアウトドアベンチマークの実験結果から,本手法は最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2022-09-19T03:46:13Z) - Multi-Temporal Spatial-Spectral Comparison Network for Hyperspectral
Anomalous Change Detection [32.23764287942984]
MTC-NET(Hyperspectral Anomalous Change Detection)のためのマルチテンポラル空間スペクトル比較ネットワークの提案を行った。
モデル全体はディープ・サイムズ・ネットワークであり、コントラスト学習により高スペクトル画像からの複雑な撮像条件から生じるスペクトル差を学習することを目的としている。
Viareggio 2013データセットの実験では、提案されたMCC-NETの有効性が示されている。
論文 参考訳(メタデータ) (2022-05-23T15:41:27Z) - Look Back and Forth: Video Super-Resolution with Explicit Temporal
Difference Modeling [105.69197687940505]
本稿では,LR空間とHR空間における時間差の明示的モデル化の役割について検討する。
超解像結果をさらに高めるために、空間残留特徴を抽出するだけでなく、高周波領域における連続フレーム間の差も計算する。
論文 参考訳(メタデータ) (2022-04-14T17:07:33Z) - Deep Siamese Domain Adaptation Convolutional Neural Network for
Cross-domain Change Detection in Multispectral Images [28.683734356006262]
クロスドメイン変化検出のための新しいディープ・サイムズ・ドメイン適応畳み込みニューラルネットワーク(DSDANet)アーキテクチャを提案する。
我々の知る限りでは、このようなドメイン適応に基づくディープネットワークが変更検出のために提案されたのは初めてである。
論文 参考訳(メタデータ) (2020-04-13T02:15:04Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。