論文の概要: MS-RAFT-3D: A Multi-Scale Architecture for Recurrent Image-Based Scene Flow
- arxiv url: http://arxiv.org/abs/2506.01443v1
- Date: Mon, 02 Jun 2025 08:59:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.110278
- Title: MS-RAFT-3D: A Multi-Scale Architecture for Recurrent Image-Based Scene Flow
- Title(参考訳): MS-RAFT-3D:リカレントイメージベースシーンフローのためのマルチスケールアーキテクチャ
- Authors: Jakob Schmid, Azin Jahedi, Noah Berenguel Senn, Andrés Bruhn,
- Abstract要約: 我々は,光学的フローから画像に基づくシーンフローに至るまで,階層的に成功したアイデアを一般化するマルチスケールアプローチを開発した。
特徴量とコンテキストエンコーダの適切な概念を考慮し,KITTIとSpringの最先端技術よりも優れたシーンフローアプローチを設計することに成功している。
- 参考スコア(独自算出の注目度): 2.3811618212533663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although multi-scale concepts have recently proven useful for recurrent network architectures in the field of optical flow and stereo, they have not been considered for image-based scene flow so far. Hence, based on a single-scale recurrent scene flow backbone, we develop a multi-scale approach that generalizes successful hierarchical ideas from optical flow to image-based scene flow. By considering suitable concepts for the feature and the context encoder, the overall coarse-to-fine framework and the training loss, we succeed to design a scene flow approach that outperforms the current state of the art on KITTI and Spring by 8.7%(3.89 vs. 4.26) and 65.8% (9.13 vs. 26.71), respectively. Our code is available at https://github.com/cv-stuttgart/MS-RAFT-3D.
- Abstract(参考訳): マルチスケールの概念は近年,光フローやステレオの分野での繰り返しネットワークアーキテクチャに有用であることが証明されているが,これまで画像ベースのシーンフローでは考慮されていない。
したがって、単一スケールの繰り返しシーンフローのバックボーンに基づいて、光フローから画像ベースシーンフローへの階層的アイデアを一般化するマルチスケールアプローチを開発する。
機能とコンテキストエンコーダ,全体粗いフレームワーク,トレーニング損失の適切な概念を考慮することで,KITTIとSpringの現在の最先端をそれぞれ8.7%(3.89 vs. 4.26),65.8%(9.13 vs. 26.71)で上回るシーンフローアプローチを設計することに成功した。
私たちのコードはhttps://github.com/cv-stuttgart/MS-RAFT-3Dで利用可能です。
関連論文リスト
- Quark: Real-time, High-resolution, and General Neural View Synthesis [14.614589047064191]
本稿では,高品質,高解像度,リアルタイムの新規ビュー合成を実現するためのニューラルアルゴリズムを提案する。
入力されたRGB画像やビデオストリームのスパースセットから、3Dシーンを再構築し、NVIDIA A100上で1080pの解像度で新しいビューを30fpsでレンダリングします。
論文 参考訳(メタデータ) (2024-11-25T18:59:50Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - Multi-Scale RAFT: Combining Hierarchical Concepts for Learning-based
Optical FLow Estimation [0.6882042556551611]
単一推定フレームワーク内に複数の階層的概念を組み合わせた,新しいマルチスケールニューラルネットワークを提案する。
これらの概念には、 (i) 部分的に共有された粗大なアーキテクチャ、 (ii) マルチスケールの特徴、 (iii) 階層的なコストボリューム、 (iv) マルチスケールのマルチイテレーション損失が含まれる。
論文 参考訳(メタデータ) (2022-07-25T13:03:30Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Beyond a Video Frame Interpolator: A Space Decoupled Learning Approach
to Continuous Image Transition [40.970815093107774]
ビデオフレーム(VFI)は、ビデオシーケンスの時間分解能を改善することを目的としている。
既存のディープラーニングベースのVFI手法の多くは、双方向フローを推定するためにオフザシェルフ光フローアルゴリズムを採用している。
我々は、暗黙的に画像を翻訳可能なフロー空間と非翻訳可能な特徴空間に分離することを学ぶ。
論文 参考訳(メタデータ) (2022-03-18T07:28:14Z) - Spatio-Temporal Recurrent Networks for Event-Based Optical Flow
Estimation [47.984368369734995]
本稿では,イベントベース光フロー推定のためのニューラルネットアーキテクチャを提案する。
このネットワークは、Multi-Vehicle Stereo Event Cameraデータセット上で、セルフ教師付き学習でエンドツーエンドにトレーニングされている。
既存の最先端の手法を大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2021-09-10T13:37:37Z) - FlowStep3D: Model Unrolling for Self-Supervised Scene Flow Estimation [87.74617110803189]
シーンフローとして知られるシーン内の点の3次元運動を推定することは、コンピュータビジョンにおける中核的な問題である。
本稿では,シーンフローの予測を洗練するための反復的アライメント手順の1ステップを学習する再帰的アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-19T23:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。