論文の概要: HCRF-Flow: Scene Flow from Point Clouds with Continuous High-order CRFs
and Position-aware Flow Embedding
- arxiv url: http://arxiv.org/abs/2105.07751v1
- Date: Mon, 17 May 2021 11:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:42:19.173767
- Title: HCRF-Flow: Scene Flow from Point Clouds with Continuous High-order CRFs
and Position-aware Flow Embedding
- Title(参考訳): HCRF流:連続高次CRFと位置認識フロー埋め込みを有する点雲からのシーンフロー
- Authors: Ruibo Li, Guosheng Lin, Tong He, Fayao Liu, Chunhua Shen
- Abstract要約: 隣接点間の滑らかさを強制するために,動きの一貫性を導入する。
局所変換の剛性に関する制約は、各局所領域内のすべての点に対して一意的な剛性パラメータを共有することで追加される。
提案フレームワーク(hcrf-flow)は最先端の性能を実現し,これまでのアプローチを大きく上回っている。
- 参考スコア(独自算出の注目度): 116.77676304438792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene flow in 3D point clouds plays an important role in understanding
dynamic environments. Although significant advances have been made by deep
neural networks, the performance is far from satisfactory as only per-point
translational motion is considered, neglecting the constraints of the rigid
motion in local regions. To address the issue, we propose to introduce the
motion consistency to force the smoothness among neighboring points. In
addition, constraints on the rigidity of the local transformation are also
added by sharing unique rigid motion parameters for all points within each
local region. To this end, a high-order CRFs based relation module (Con-HCRFs)
is deployed to explore both point-wise smoothness and region-wise rigidity. To
empower the CRFs to have a discriminative unary term, we also introduce a
position-aware flow estimation module to be incorporated into the Con-HCRFs.
Comprehensive experiments on FlyingThings3D and KITTI show that our proposed
framework (HCRF-Flow) achieves state-of-the-art performance and significantly
outperforms previous approaches substantially.
- Abstract(参考訳): 3Dポイントクラウドにおけるシーンフローは、動的環境を理解する上で重要な役割を果たす。
深層ニューラルネットワークによる顕著な進歩はあったが、局所領域における剛性運動の制約を無視して、ポイント当たりの翻訳運動のみが考慮されるため、性能は十分ではない。
この問題に対処するために,隣接する点間の滑らかさを強制する動きの整合性を導入することを提案する。
さらに、局所変換の剛性に関する制約は、各局所領域内のすべての点に対して一意的な剛性パラメータを共有することで追加される。
この目的のために、高次CRFベースの関係モジュール(Con-HCRF)を配置し、点方向の滑らかさと領域方向の剛性の両方を探索する。
また,CRFに識別的一意項を持たせるために,Con-HCRFに組み込む位置認識フロー推定モジュールを導入する。
FlyingThings3D と KITTI に関する総合的な実験により,提案するフレームワーク (HCRF-Flow) が最先端の性能を達成し,従来のアプローチを大幅に上回ることを示す。
関連論文リスト
- SSRFlow: Semantic-aware Fusion with Spatial Temporal Re-embedding for Real-world Scene Flow [6.995663556921384]
シーンフローは、2つの連続する点雲から第1フレームの3次元運動場を提供する。
本稿では,2つのフレーム間の融合とアライメントのためのDCA(Dual Cross Attentive)という新しい手法を提案する。
我々は、新しいドメイン適応損失を利用して、合成から実世界への動き推論のギャップを効果的に橋渡しする。
論文 参考訳(メタデータ) (2024-07-31T02:28:40Z) - KFD-NeRF: Rethinking Dynamic NeRF with Kalman Filter [49.85369344101118]
KFD-NeRFは,Kalmanフィルタに基づく効率的かつ高品質な運動再構成フレームワークと統合された,新しい動的ニューラル放射場である。
我々のキーとなる考え方は、動的放射場を、観測と予測という2つの知識源に基づいて時間的に異なる状態が推定される動的システムとしてモデル化することである。
我々のKFD-NeRFは、同等の計算時間と最先端の視線合成性能で、徹底的な訓練を施した類似または優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T05:48:24Z) - Deformable Feature Alignment and Refinement for Moving Infrared Dim-small Target Detection [17.765101100010224]
本稿では,変形可能なコンボリューションに基づく変形可能な特徴アライメント・リファインメント(DFAR)手法を提案する。
提案手法はDAUBとIRDSTを含む2つのベンチマークデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-10T00:42:25Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - LVC-LGMC: Joint Local and Global Motion Compensation for Learned Video
Compression [13.768476094012787]
本稿では,映像符号化のための共同ローカル・グローバル・モーション補償モジュール(LGMC)を提案する。
グローバルなコンテキストを捉えるために,機能領域におけるクロスアテンションを用いて動き補償を行う。
LVC-LGMCは,ベースラインDCVC-TCMよりも高い速度歪み性能を有する。
論文 参考訳(メタデータ) (2024-02-01T15:43:43Z) - Deep Reinforcement Learning for IRS Phase Shift Design in
Spatiotemporally Correlated Environments [93.30657979626858]
本稿では,チャネル相関と目的地動きを考慮したディープアクター批判アルゴリズムを提案する。
チャネルが時間的に相関している場合、コンバージェンスを抑制する方法において、関数近似を伴う状態表現にSNRを組み込むことが示される。
論文 参考訳(メタデータ) (2022-11-02T22:07:36Z) - Continuous Conditional Random Field Convolution for Point Cloud
Segmentation [12.154944192318936]
条件付きランダムフィールド(CRF)は通常、ラベルの一貫性を促進するためにラベル空間の離散モデルとして定式化される。
本稿では,CRFを特徴空間に再検討し,特徴構造をよく捉えることができる点雲セグメンテーションを提案する。
各種クラウドベンチマーク実験により,提案手法の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2021-10-12T15:35:38Z) - PU-Flow: a Point Cloud Upsampling Networkwith Normalizing Flows [58.96306192736593]
本稿では,正規化フローを組み込んだPU-Flowについて述べる。
具体的には、重みが局所的な幾何学的文脈から適応的に学習される潜在空間において、アップサンプリング過程を点として定式化する。
提案手法は, 再現性, 近接精度, 計算効率の観点から, 最先端の深層学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-13T07:45:48Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - PV-RAFT: Point-Voxel Correlation Fields for Scene Flow Estimation of
Point Clouds [89.76093400242088]
本稿では,点雲からのシーンフローを推定するPV-RAFT(Point-Voxel Recurrent All-Pairs Field Transforms)法を提案する。
提案手法をFlyingThings3DとKITTI Scene Flow 2015データセットで評価した。
論文 参考訳(メタデータ) (2020-12-02T06:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。