論文の概要: HCRF-Flow: Scene Flow from Point Clouds with Continuous High-order CRFs
and Position-aware Flow Embedding
- arxiv url: http://arxiv.org/abs/2105.07751v1
- Date: Mon, 17 May 2021 11:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:42:19.173767
- Title: HCRF-Flow: Scene Flow from Point Clouds with Continuous High-order CRFs
and Position-aware Flow Embedding
- Title(参考訳): HCRF流:連続高次CRFと位置認識フロー埋め込みを有する点雲からのシーンフロー
- Authors: Ruibo Li, Guosheng Lin, Tong He, Fayao Liu, Chunhua Shen
- Abstract要約: 隣接点間の滑らかさを強制するために,動きの一貫性を導入する。
局所変換の剛性に関する制約は、各局所領域内のすべての点に対して一意的な剛性パラメータを共有することで追加される。
提案フレームワーク(hcrf-flow)は最先端の性能を実現し,これまでのアプローチを大きく上回っている。
- 参考スコア(独自算出の注目度): 116.77676304438792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene flow in 3D point clouds plays an important role in understanding
dynamic environments. Although significant advances have been made by deep
neural networks, the performance is far from satisfactory as only per-point
translational motion is considered, neglecting the constraints of the rigid
motion in local regions. To address the issue, we propose to introduce the
motion consistency to force the smoothness among neighboring points. In
addition, constraints on the rigidity of the local transformation are also
added by sharing unique rigid motion parameters for all points within each
local region. To this end, a high-order CRFs based relation module (Con-HCRFs)
is deployed to explore both point-wise smoothness and region-wise rigidity. To
empower the CRFs to have a discriminative unary term, we also introduce a
position-aware flow estimation module to be incorporated into the Con-HCRFs.
Comprehensive experiments on FlyingThings3D and KITTI show that our proposed
framework (HCRF-Flow) achieves state-of-the-art performance and significantly
outperforms previous approaches substantially.
- Abstract(参考訳): 3Dポイントクラウドにおけるシーンフローは、動的環境を理解する上で重要な役割を果たす。
深層ニューラルネットワークによる顕著な進歩はあったが、局所領域における剛性運動の制約を無視して、ポイント当たりの翻訳運動のみが考慮されるため、性能は十分ではない。
この問題に対処するために,隣接する点間の滑らかさを強制する動きの整合性を導入することを提案する。
さらに、局所変換の剛性に関する制約は、各局所領域内のすべての点に対して一意的な剛性パラメータを共有することで追加される。
この目的のために、高次CRFベースの関係モジュール(Con-HCRF)を配置し、点方向の滑らかさと領域方向の剛性の両方を探索する。
また,CRFに識別的一意項を持たせるために,Con-HCRFに組み込む位置認識フロー推定モジュールを導入する。
FlyingThings3D と KITTI に関する総合的な実験により,提案するフレームワーク (HCRF-Flow) が最先端の性能を達成し,従来のアプローチを大幅に上回ることを示す。
関連論文リスト
- LVC-LGMC: Joint Local and Global Motion Compensation for Learned Video
Compression [13.768476094012787]
本稿では,映像符号化のための共同ローカル・グローバル・モーション補償モジュール(LGMC)を提案する。
グローバルなコンテキストを捉えるために,機能領域におけるクロスアテンションを用いて動き補償を行う。
LVC-LGMCは,ベースラインDCVC-TCMよりも高い速度歪み性能を有する。
論文 参考訳(メタデータ) (2024-02-01T15:43:43Z) - CCMR: High Resolution Optical Flow Estimation via Coarse-to-Fine
Context-Guided Motion Reasoning [1.0855602842179624]
マルチスケール光フロー推定に注目に基づく動きグルーピングの概念を活用する高分解能粗度アプローチであるCCMRを提案する。
CCMRは階層的な2段階の注意に基づく文脈移動グループ戦略に依存している。
実験と改善は、マルチスケールとアテンションに基づく概念を組み合わせる努力が報われることを示している。
論文 参考訳(メタデータ) (2023-11-05T14:14:24Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - Deep Reinforcement Learning for IRS Phase Shift Design in
Spatiotemporally Correlated Environments [93.30657979626858]
本稿では,チャネル相関と目的地動きを考慮したディープアクター批判アルゴリズムを提案する。
チャネルが時間的に相関している場合、コンバージェンスを抑制する方法において、関数近似を伴う状態表現にSNRを組み込むことが示される。
論文 参考訳(メタデータ) (2022-11-02T22:07:36Z) - Continuous Conditional Random Field Convolution for Point Cloud
Segmentation [12.154944192318936]
条件付きランダムフィールド(CRF)は通常、ラベルの一貫性を促進するためにラベル空間の離散モデルとして定式化される。
本稿では,CRFを特徴空間に再検討し,特徴構造をよく捉えることができる点雲セグメンテーションを提案する。
各種クラウドベンチマーク実験により,提案手法の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2021-10-12T15:35:38Z) - PU-Flow: a Point Cloud Upsampling Networkwith Normalizing Flows [58.96306192736593]
本稿では,正規化フローを組み込んだPU-Flowについて述べる。
具体的には、重みが局所的な幾何学的文脈から適応的に学習される潜在空間において、アップサンプリング過程を点として定式化する。
提案手法は, 再現性, 近接精度, 計算効率の観点から, 最先端の深層学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-13T07:45:48Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - PV-RAFT: Point-Voxel Correlation Fields for Scene Flow Estimation of
Point Clouds [89.76093400242088]
本稿では,点雲からのシーンフローを推定するPV-RAFT(Point-Voxel Recurrent All-Pairs Field Transforms)法を提案する。
提案手法をFlyingThings3DとKITTI Scene Flow 2015データセットで評価した。
論文 参考訳(メタデータ) (2020-12-02T06:20:54Z) - Hierarchical Attention Learning of Scene Flow in 3D Point Clouds [28.59260783047209]
本稿では,2つの連続する3次元点雲からのシーンフロー推定の問題について検討する。
隣接フレームにおける点特徴の相関を学習するために, 二重注意を有する新しい階層型ニューラルネットワークを提案する。
実験の結果,提案したネットワークは3次元シーンフロー推定の最先端性能より優れていた。
論文 参考訳(メタデータ) (2020-10-12T14:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。