論文の概要: DiffSF: Diffusion Models for Scene Flow Estimation
- arxiv url: http://arxiv.org/abs/2403.05327v3
- Date: Fri, 04 Oct 2024 13:37:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 15:07:11.436995
- Title: DiffSF: Diffusion Models for Scene Flow Estimation
- Title(参考訳): DiffSF:シーンフロー推定のための拡散モデル
- Authors: Yushan Zhang, Bastian Wandt, Maria Magnusson, Michael Felsberg,
- Abstract要約: 本稿では,変圧器を用いたシーンフロー推定とデノナイズ拡散モデルを組み合わせたDiffSFを提案する。
拡散過程は, 従来の手法に比べて, 予測の堅牢性を大幅に向上させることを示す。
異なる初期状態で複数回サンプリングすることにより、復調過程は複数の仮説を予測し、出力の不確実性を測定することができる。
- 参考スコア(独自算出の注目度): 17.512660491303684
- License:
- Abstract: Scene flow estimation is an essential ingredient for a variety of real-world applications, especially for autonomous agents, such as self-driving cars and robots. While recent scene flow estimation approaches achieve a reasonable accuracy, their applicability to real-world systems additionally benefits from a reliability measure. Aiming at improving accuracy while additionally providing an estimate for uncertainty, we propose DiffSF that combines transformer-based scene flow estimation with denoising diffusion models. In the diffusion process, the ground truth scene flow vector field is gradually perturbed by adding Gaussian noise. In the reverse process, starting from randomly sampled Gaussian noise, the scene flow vector field prediction is recovered by conditioning on a source and a target point cloud. We show that the diffusion process greatly increases the robustness of predictions compared to prior approaches resulting in state-of-the-art performance on standard scene flow estimation benchmarks. Moreover, by sampling multiple times with different initial states, the denoising process predicts multiple hypotheses, which enables measuring the output uncertainty, allowing our approach to detect a majority of the inaccurate predictions. The code is available at https://github.com/ZhangYushan3/DiffSF.
- Abstract(参考訳): シーンフロー推定は、特に自動運転車やロボットのような自律型エージェントにとって、様々な現実世界のアプリケーションにとって重要な要素である。
最近のシーンフロー推定手法は妥当な精度を達成するが、現実のシステムへの適用性は信頼性の指標から恩恵を受ける。
精度の向上と不確実性の推定を兼ね備えたDiffSFを提案する。
拡散過程において、ガウス雑音を付加することにより、地上の真理シーンフローベクトル場を徐々に摂動させる。
逆処理では、ランダムサンプリングされたガウスノイズから始まり、ソースとターゲットポイントクラウドに条件付けすることでシーンフローベクトル場予測を復元する。
拡散過程は,従来の手法と比較して予測の堅牢性を大幅に向上させ,その結果,標準的なシーンフロー推定ベンチマークにおける最先端の性能が向上したことを示す。
さらに,初期状態の異なる複数回をサンプリングすることにより,複数の仮説を予測し,出力の不確かさを計測し,不正確な予測の大部分を検出する。
コードはhttps://github.com/ZhangYushan3/DiffSFで公開されている。
関連論文リスト
- Diffusion Priors for Variational Likelihood Estimation and Image Denoising [10.548018200066858]
本稿では,現実の雑音に対処するために,逆拡散過程における適応的確率推定とMAP推定を提案する。
実世界の多様なデータセットの実験と分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-10-23T02:52:53Z) - Channel-aware Contrastive Conditional Diffusion for Multivariate Probabilistic Time Series Forecasting [19.383395337330082]
本稿では,CCDM(Contrastive Conditional Diffusion)モデルを提案する。
提案したCCDMは,現在最先端の拡散予測器と比較して優れた予測能力を示すことができる。
論文 参考訳(メタデータ) (2024-10-03T03:13:15Z) - Modeling State Shifting via Local-Global Distillation for Event-Frame Gaze Tracking [61.44701715285463]
本稿では,イベントデータとフレームデータの両方を用いた受動的視線推定の問題に取り組む。
我々は、現在の状態からいくつかの事前登録されたアンカー状態に移行する状態の定量化として、視線推定を再構成する。
大規模視線推定ネットワークを直接学習する代わりに,地域の専門家グループと学生ネットワークを連携させることにより,一般化能力の向上を図る。
論文 参考訳(メタデータ) (2024-03-31T03:30:37Z) - Exploiting Diffusion Prior for Generalizable Dense Prediction [85.4563592053464]
近年のテキスト・トゥ・イメージ(T2I)拡散モデルでは、既成の高密度予測器では予測できないことがある。
我々は,事前学習したT2Iモデルを用いたパイプラインDMPを,高密度予測タスクの先駆けとして導入する。
限られたドメインのトレーニングデータにもかかわらず、この手法は任意の画像に対して忠実に推定し、既存の最先端のアルゴリズムを超越する。
論文 参考訳(メタデータ) (2023-11-30T18:59:44Z) - DifFlow3D: Toward Robust Uncertainty-Aware Scene Flow Estimation with Diffusion Model [20.15214479105187]
拡散確率モデルを用いた不確実性を考慮したシーンフロー推定ネットワーク(DifFlow3D)を提案する。
提案手法は,KITTIデータセット上での前例のないミリレベルの精度(EPE3Dで0.0078m)を達成する。
論文 参考訳(メタデータ) (2023-11-29T08:56:24Z) - Direct Unsupervised Denoising [60.71146161035649]
教師なしのデノイザは、MMSE推定のような単一の予測を直接生成しない。
本稿では,VAEと並んで決定論的ネットワークを訓練し,中心的な傾向を直接予測するアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-27T13:02:12Z) - Benchmarking Autoregressive Conditional Diffusion Models for Turbulent
Flow Simulation [29.806100463356906]
条件付き拡散モデルに基づく自動回帰ロールアウトを利用した完全データ駆動型流体解法が有効な選択肢であるかどうかを解析する。
本研究は, トレーニング体制を超えた流れパラメータの一般化を必要としながら, 精度, 後方サンプリング, スペクトル挙動, 時間安定性について検討する。
単純な拡散に基づくアプローチであっても、トレーニング時のアンロールのような最先端の安定化技術と同等でありながら、精度と時間的安定性の観点から、複数の確立したフロー予測手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-09-04T18:01:42Z) - Pedestrian Trajectory Forecasting Using Deep Ensembles Under Sensing
Uncertainty [125.41260574344933]
エンコーダ・デコーダをベースとした深層アンサンブルネットワークは,認識と予測の不確実性の両方を同時に捕捉する。
全体として、深層アンサンブルはより堅牢な予測を提供し、上流の不確実性の考慮により、モデルの推定精度をさらに高めた。
論文 参考訳(メタデータ) (2023-05-26T04:27:48Z) - DiffTAD: Temporal Action Detection with Proposal Denoising Diffusion [137.8749239614528]
そこで我々は,時間的行動検出(TAD)の新しい定式化を提案し,拡散を抑えるDiffTADを提案する。
入力されたランダムな時間的提案を考慮すれば、トリミングされていない長いビデオが与えられたアクションの提案を正確に得ることができる。
論文 参考訳(メタデータ) (2023-03-27T00:40:52Z) - Bayesian Sparse Regression for Mixed Multi-Responses with Application to
Runtime Metrics Prediction in Fog Manufacturing [6.288767115532775]
フォッグ製造は、分散計算Fogユニットを通じて従来の製造システムを大幅に強化することができる。
予測オフロード手法は,実行時のパフォーマンス指標の正確な予測と不確かさの定量化に大きく依存していることが知られている。
本稿では,多変量混合応答に対するベイジアンスパース回帰法を提案し,実行時性能指標の予測を強化する。
論文 参考訳(メタデータ) (2022-10-10T16:14:08Z) - Quantifying Uncertainty in Deep Spatiotemporal Forecasting [67.77102283276409]
本稿では,正規格子法とグラフ法という2種類の予測問題について述べる。
我々はベイジアンおよび頻繁な視点からUQ法を解析し、統計的決定理論を通じて統一的な枠組みを提示する。
実際の道路ネットワークのトラフィック、疫病、空気質予測タスクに関する広範な実験を通じて、異なるUQ手法の統計計算トレードオフを明らかにする。
論文 参考訳(メタデータ) (2021-05-25T14:35:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。