論文の概要: DeFlow: Decoder of Scene Flow Network in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2401.16122v1
- Date: Mon, 29 Jan 2024 12:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 14:51:39.932759
- Title: DeFlow: Decoder of Scene Flow Network in Autonomous Driving
- Title(参考訳): DeFlow: 自動運転におけるシーンフローネットワークのデコーダ
- Authors: Qingwen Zhang, Yi Yang, Heng Fang, Ruoyu Geng, Patric Jensfelt
- Abstract要約: シーンフロー推定は、シーン内のポイントの運動を予測することによって、シーンの3次元運動場を決定する。
入力として大規模な点雲を持つ多くのネットワークは、リアルタイム実行のための擬似イメージを作成するためにボキセル化を使用する。
本稿では, Gated Recurrent Unit (GRU) の改良により, ボクセルをベースとした特徴から点への遷移を可能にするDeFlowを紹介した。
- 参考スコア(独自算出の注目度): 19.486167661795797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scene flow estimation determines a scene's 3D motion field, by predicting the
motion of points in the scene, especially for aiding tasks in autonomous
driving. Many networks with large-scale point clouds as input use voxelization
to create a pseudo-image for real-time running. However, the voxelization
process often results in the loss of point-specific features. This gives rise
to a challenge in recovering those features for scene flow tasks. Our paper
introduces DeFlow which enables a transition from voxel-based features to point
features using Gated Recurrent Unit (GRU) refinement. To further enhance scene
flow estimation performance, we formulate a novel loss function that accounts
for the data imbalance between static and dynamic points. Evaluations on the
Argoverse 2 scene flow task reveal that DeFlow achieves state-of-the-art
results on large-scale point cloud data, demonstrating that our network has
better performance and efficiency compared to others. The code is open-sourced
at https://github.com/KTH-RPL/deflow.
- Abstract(参考訳): シーンフロー推定はシーン内の点の動きを予測し、特に自動運転におけるタスクを支援することにより、シーンの3次元運動場を決定する。
大規模なポイントクラウドを入力として持つ多くのネットワークは、voxelizationを使用して、リアルタイム実行のための擬似イメージを作成する。
しかしながら、ボキセル化過程は、しばしば点特異的な特徴の喪失をもたらす。
これにより、シーンフロータスクの機能を回復する上での課題が生まれます。
本稿では, Gated Recurrent Unit (GRU) の改良により, ボクセルに基づく特徴から点への遷移を可能にするDeFlowを紹介した。
シーンフロー推定性能をさらに高めるために,静的点と動的点のデータ不均衡を考慮した新しい損失関数を定式化する。
Argoverse 2のシーンフロータスクの評価から,DeFlowが大規模クラウドデータに対して最先端の結果を達成し,ネットワークの性能と効率が他と比較して向上していることが分かる。
コードはhttps://github.com/KTH-RPL/deflowで公開されている。
関連論文リスト
- Neural Eulerian Scene Flow Fields [59.57980592109722]
EulerFlowは、複数のドメインをチューニングすることなく、最初から動作します。
長期間の地平線上での推定ODEを解くことで、創発的な3次元点追跡挙動を示す。
2024年のArgoverse 2 Scene Flow Challengeでは、すべての先行技術より優れています。
論文 参考訳(メタデータ) (2024-10-02T20:56:45Z) - SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Scene Flow from Point Clouds with or without Learning [47.03163552693887]
シーンフロー(Scene flow)は、シーンの3次元運動場である。
現在の学習ベースのアプローチは、ポイントクラウドから直接シーンフローを推定することを目指している。
本稿では,点雲からシーンフローを復元する,シンプルで解釈可能な目的関数を提案する。
論文 参考訳(メタデータ) (2020-10-31T17:24:48Z) - Hierarchical Attention Learning of Scene Flow in 3D Point Clouds [28.59260783047209]
本稿では,2つの連続する3次元点雲からのシーンフロー推定の問題について検討する。
隣接フレームにおける点特徴の相関を学習するために, 二重注意を有する新しい階層型ニューラルネットワークを提案する。
実験の結果,提案したネットワークは3次元シーンフロー推定の最先端性能より優れていた。
論文 参考訳(メタデータ) (2020-10-12T14:56:08Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。