論文の概要: Extracting full-field subpixel structural displacements from videos via
deep learning
- arxiv url: http://arxiv.org/abs/2008.13715v2
- Date: Thu, 3 Sep 2020 21:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 07:01:52.655420
- Title: Extracting full-field subpixel structural displacements from videos via
deep learning
- Title(参考訳): 深層学習によるビデオからのフルフィールドサブピクセル構造変位の抽出
- Authors: Lele Luan and Jingwei Zheng and Yongchao Yang and Ming L. Wang and Hao
Sun
- Abstract要約: 2つの新しいCNNアーキテクチャは、位相ベースモーション抽出法によって生成されたデータセットに基づいて設計、訓練されている。
その結果, 十分にテクスチャコントラストを有する画素を同定し, フルかつスパースな運動場を監督することにより, トレーニングされたネットワークは, 十分なテクスチャコントラストを付与できることがわかった。
トレーニングされたネットワークの性能は、他の構造の様々なビデオでテストされ、フルフィールド運動を抽出する。
- 参考スコア(独自算出の注目度): 6.3376363722490145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper develops a deep learning framework based on convolutional neural
networks (CNNs) that enable real-time extraction of full-field subpixel
structural displacements from videos. In particular, two new CNN architectures
are designed and trained on a dataset generated by the phase-based motion
extraction method from a single lab-recorded high-speed video of a dynamic
structure. As displacement is only reliable in the regions with sufficient
texture contrast, the sparsity of motion field induced by the texture mask is
considered via the network architecture design and loss function definition.
Results show that, with the supervision of full and sparse motion field, the
trained network is capable of identifying the pixels with sufficient texture
contrast as well as their subpixel motions. The performance of the trained
networks is tested on various videos of other structures to extract the
full-field motion (e.g., displacement time histories), which indicates that the
trained networks have generalizability to accurately extract full-field subtle
displacements for pixels with sufficient texture contrast.
- Abstract(参考訳): 本稿では,ビデオからのフルフィールドサブピクセル構造変位のリアルタイム抽出を可能にする,畳み込みニューラルネットワーク(CNN)に基づくディープラーニングフレームワークを開発する。
特に、2つの新しいCNNアーキテクチャは、動的構造の単一実験室記録高速ビデオから位相ベースの動き抽出法によって生成されたデータセットに基づいて設計、訓練されている。
テクスチャコントラストが十分である地域でのみ変位が信頼できるため、テクスチャマスクによって引き起こされる動きのスパース性は、ネットワークアーキテクチャ設計と損失関数定義によって考慮される。
その結果、フルでスパースな動き場を監督することで、トレーニングされたネットワークは、十分なテクスチャコントラストとサブピクセルの動きを持つピクセルを識別できることがわかった。
トレーニングされたネットワークの性能は、他の構造の様々なビデオでテストされ、フルフィールドの動き(例えば、変位時間履歴)を抽出し、トレーニングされたネットワークが十分なテクスチャコントラストを持つ画素に対してフルフィールドの微妙な変位を正確に抽出する一般化性を示す。
関連論文リスト
- Reducing Texture Bias of Deep Neural Networks via Edge Enhancing Diffusion [4.599829659954009]
セマンティックセグメンテーションにおけるCNNのテクスチャバイアスについて検討する。
我々は、テクスチャバイアスを減らすために、テクスチャの少ない前処理画像にCNNを訓練する。
我々はCNNの強いテクスチャ依存性と変換器の適度なテクスチャ依存性を観察する。
論文 参考訳(メタデータ) (2024-02-14T19:10:40Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Efficient Textured Mesh Recovery from Multiple Views with Differentiable
Rendering [8.264851594332677]
マルチビュー画像からテクスチャメッシュを復元する手法を提案する。
学習ベース多視点ステレオアルゴリズムにより予測される深度との差を最小化することにより形状形状を最適化する。
形状や色に対する暗黙的なニューラル表現とは対照的に,物体の光と反射を共同で推定する物理ベース逆レンダリング方式を導入する。
論文 参考訳(メタデータ) (2022-05-25T03:33:55Z) - Motion-aware Dynamic Graph Neural Network for Video Compressive Sensing [14.67994875448175]
ビデオスナップショットイメージング(SCI)は、2D検出器を使用してシーケンシャルなビデオフレームをキャプチャし、それらを1つの測定値に圧縮する。
既存の再建手法の多くは、長距離空間および時間的依存関係を効率的に捉えることができない。
グラフニューラルネットワーク(GNN)に基づくフレキシブルでロバストなアプローチを提案し,距離に関わらず,空間と時間における画素間の非局所的相互作用を効率的にモデル化する。
論文 参考訳(メタデータ) (2022-03-01T12:13:46Z) - Deep Video Inpainting Detection [95.36819088529622]
映像インペインティング検出は、映像内のインペイント領域を空間的および時間的にローカライズする。
VIDNet, Video Inpainting Detection Networkは、注意モジュールを備えた2ストリームエンコーダデコーダアーキテクチャを含む。
論文 参考訳(メタデータ) (2021-01-26T20:53:49Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - Temporally Distributed Networks for Fast Video Semantic Segmentation [64.5330491940425]
TDNetは、高速かつ正確なビデオセマンティックセグメンテーションのために設計された時間分散ネットワークである。
我々は,深層CNNの特定の高層層から抽出した特徴を,より浅いサブネットワークから抽出した特徴の合成により近似することができることを観察した。
Cityscapes, CamVid, NYUD-v2 の実験により,本手法が高速かつ低レイテンシで最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。