論文の概要: A Network for structural dense displacement based on 3D deformable mesh
model and optical flow
- arxiv url: http://arxiv.org/abs/2402.06329v1
- Date: Fri, 9 Feb 2024 11:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-12 17:18:34.699805
- Title: A Network for structural dense displacement based on 3D deformable mesh
model and optical flow
- Title(参考訳): 3次元変形可能なメッシュモデルとオプティカルフローに基づく構造的高密度変位のネットワーク
- Authors: Peimian Du, Qicheng Guo, Yanru Li
- Abstract要約: 本研究では,ビデオからのRCフレーム構造の変位をモノクロカメラで認識するネットワークを提案する。
FlowNet2は高密度光流を生成するのに使われ、POFRN-NetはポーズパラメータHを抽出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes a Network to recognize displacement of a RC frame
structure from a video by a monocular camera. The proposed Network consists of
two modules which is FlowNet2 and POFRN-Net. FlowNet2 is used to generate dense
optical flow as well as POFRN-Net is to extract pose parameter H. FlowNet2
convert two video frames into dense optical flow. POFRN-Net is inputted dense
optical flow from FlowNet2 to output the pose parameter H. The displacement of
any points of structure can be calculated from parameter H. The Fast Fourier
Transform (FFT) is applied to obtain frequency domain signal from corresponding
displacement signal. Furthermore, the comparison of the truth displacement on
the First floor of the First video is shown in this study. Finally, the
predicted displacements on four floors of RC frame structure of given three
videos are exhibited in the last of this study.
- Abstract(参考訳): 本研究では,ビデオからのRCフレーム構造の変位をモノクロカメラで認識するネットワークを提案する。
提案するネットワークは,FlowNet2とPOFRN-Netの2つのモジュールで構成されている。
flownet2 は高密度光フローを生成するのに使われ、pofrn-net はポーズパラメータ h. flownet2 は2つのビデオフレームを高密度光フローに変換する。
pofrn-netはflownet2から高密度光フローを入力してポーズパラメータhを出力する。任意の構造の変位をパラメータhから計算できる。高速フーリエ変換(fft)を適用して対応する変位信号から周波数領域信号を得る。
さらに,本研究では,第1ビデオの1階における真偽の変位の比較を行った。
最後に,本研究の最後に,rcフレーム構造の4階における3つの映像の変位を予測した。
関連論文リスト
- Joint Reference Frame Synthesis and Post Filter Enhancement for Versatile Video Coding [53.703894799335735]
本稿では, Versatile Video Coding (VVC) のためのジョイントリファレンスフレーム合成 (RFS) と後処理フィルタ拡張 (PFE) を提案する。
RFS と PFE は Space-Time Enhancement Network (STENet) を使用しており、2つの入力フレームをアーティファクトで受信し、2つの拡張フレームを圧縮されたアーティファクトと中間合成フレームで生成する。
推論の複雑さを低減するために,STENetの単一実行によって達成されるFSとPFE(JISE)の合同推論を提案する。
論文 参考訳(メタデータ) (2024-04-28T03:11:44Z) - Image Reconstruction for Accelerated MR Scan with Faster Fourier
Convolutional Neural Networks [87.87578529398019]
部分走査は、磁気共鳴イメージング(MRI)データ取得を2次元および3次元の両方で加速する一般的な手法である。
本稿では,Faster Fourier Convolution (FasterFC) と呼ばれる新しい畳み込み演算子を提案する。
2次元加速MRI法であるFasterFC-End-to-End-VarNetは、FasterFCを用いて感度マップと再構成品質を改善する。
k空間領域再構成を誘導する単一グループアルゴリズムを用いたFasterFC-based Single-to-group Network (FAS-Net) と呼ばれる3次元加速MRI法
論文 参考訳(メタデータ) (2023-06-05T13:53:57Z) - Enhanced Correlation Matching based Video Frame Interpolation [5.304928339627251]
拡張相関マッチングに基づくビデオフレーム補間ネットワークという新しいフレームワークを提案する。
提案手法では,光学的フロー推定のために,各ピラミッド層間のパラメータを共用する繰り返しピラミッド構造を用いる。
実験の結果,提案手法は4Kビデオデータや低解像度のベンチマークデータセット,客観的品質,主観的品質などにおいて,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-17T02:43:45Z) - MODETR: Moving Object Detection with Transformers [2.4366811507669124]
移動物体検出(MOD)は、自律走行パイプラインにとって重要なタスクである。
本稿では,空間的および動きの流れを横断するマルチヘッドアテンション機構を用いてこの問題に対処する。
本研究では,移動物体検出TRansformerネットワークであるMODETRを提案する。
論文 参考訳(メタデータ) (2021-06-21T21:56:46Z) - Change Detection from SAR Images Based on Deformable Residual
Convolutional Neural Networks [26.684293663473415]
畳み込みニューラルネットワーク(cnn)は合成開口レーダ(sar)画像変化検出において大きな進歩を遂げている。
本稿では,SAR画像変化検出のための新しいUnderlineDeformable Underline Residual Convolutional Neural UnderlineNetwork (DRNet) を提案する。
論文 参考訳(メタデータ) (2021-04-06T05:52:25Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - PRAFlow_RVC: Pyramid Recurrent All-Pairs Field Transforms for Optical
Flow Estimation in Robust Vision Challenge 2020 [28.77846425802558]
ピラミッドネットワーク構造を基盤としたPRAFlow(Pyramid Recurrent All-Pairs Flow)を提案する。
モデルは同じモデルとパラメータを使って複数のリーダボードに送信し、ECCV 2020ワークショップの光学フロータスクであるRobust Vision Challengeで2位を獲得しました。
論文 参考訳(メタデータ) (2020-09-14T12:27:52Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Motion-Attentive Transition for Zero-Shot Video Object Segmentation [99.44383412488703]
ゼロショットオブジェクトセグメンテーションのためのモーション・アテンタティブ・トランジション・ネットワーク(MATNet)を提案する。
モーション・アテンティブ・トランジション (MAT) と呼ばれる非対称のアテンションブロックは、2ストリームエンコーダ内に設計されている。
このように、エンコーダは深く相互に作用し、物体の動きと外観の間の密な階層的な相互作用を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:58:42Z) - FPCR-Net: Feature Pyramidal Correlation and Residual Reconstruction for
Optical Flow Estimation [72.41370576242116]
フレーム対からの光フロー推定のための半教師付き特徴ピラミッド相関・残留再構成ネットワーク(FPCR-Net)を提案する。
ピラミッド相関マッピングと残留再構成の2つの主要なモジュールで構成されている。
実験結果から,提案手法は,平均終点誤差 (AEE) に対して0.80, 1.15, 0.10の改善を達成し,最先端性能を実現していることがわかった。
論文 参考訳(メタデータ) (2020-01-17T07:13:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。