論文の概要: Global field reconstruction from sparse sensors with Voronoi
tessellation-assisted deep learning
- arxiv url: http://arxiv.org/abs/2101.00554v1
- Date: Sun, 3 Jan 2021 03:43:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 05:46:25.108109
- Title: Global field reconstruction from sparse sensors with Voronoi
tessellation-assisted deep learning
- Title(参考訳): Voronoiテッセルレーション支援深層学習によるスパースセンサのグローバルフィールド再構築
- Authors: Kai Fukami, Romit Maulik, Nesar Ramachandra, Koji Fukagata, and
Kunihiko Taira
- Abstract要約: 任意の数の任意の位置センサに対して,構造化格子を用いた深層学習に基づくデータ駆動型空間場復元手法を提案する。
提案手法は,実時間グローバルフィールド推定のためのニューラルネットワークの実用化に向けた新たな道を開く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving accurate and robust global situational awareness of a complex
time-evolving field from a limited number of sensors has been a longstanding
challenge. This reconstruction problem is especially difficult when sensors are
sparsely positioned in a seemingly random or unorganized manner, which is often
encountered in a range of scientific and engineering problems. Moreover, these
sensors can be in motion and can become online or offline over time. The key
leverage in addressing this scientific issue is the wealth of data accumulated
from the sensors. As a solution to this problem, we propose a data-driven
spatial field recovery technique founded on a structured grid-based
deep-learning approach for arbitrary positioned sensors of any numbers. It
should be noted that the na\"ive use of machine learning becomes prohibitively
expensive for global field reconstruction and is furthermore not adaptable to
an arbitrary number of sensors. In the present work, we consider the use of
Voronoi tessellation to obtain a structured-grid representation from sensor
locations enabling the computationally tractable use of convolutional neural
networks. One of the central features of the present method is its
compatibility with deep-learning based super-resolution reconstruction
techniques for structured sensor data that are established for image
processing. The proposed reconstruction technique is demonstrated for unsteady
wake flow, geophysical data, and three-dimensional turbulence. The current
framework is able to handle an arbitrary number of moving sensors, and thereby
overcomes a major limitation with existing reconstruction methods. The
presented technique opens a new pathway towards the practical use of neural
networks for real-time global field estimation.
- Abstract(参考訳): 限られたセンサーから複雑な時間進化フィールドの正確で堅牢なグローバルな状況認識を実現することは、長年にわたる課題である。
この再構成問題は、センサーがランダムまたは非組織的な方法でわずかに配置されている場合、特に困難であり、科学や工学の様々な問題でしばしば遭遇する。
さらに、これらのセンサーは動作し、時間とともにオンラインまたはオフラインになる。
この科学的問題に対処する上で重要なレバレッジは、センサーから蓄積された豊富なデータである。
そこで本研究では,任意の位置センサに対して,構造化格子を用いた深層学習に基づくデータ駆動型空間場復元手法を提案する。
機械学習のna\" な利用は、グローバルフィールドの再構築に非常に高価になり、さらに任意の数のセンサーに適応できないことに注意すべきである。
本研究では,畳み込みニューラルネットワークの計算的利用を可能にするセンサ位置からの構造化グリッド表現を得るために,ボロノイテッセレーションの利用を検討する。
本手法の主な特徴の1つは、画像処理のために確立された構造化センサデータに対するディープラーニングに基づく超解像再構成技術との互換性である。
提案手法は, 非定常流れ, 物理データ, 3次元乱流に対して有効である。
現在のフレームワークは、任意の数の移動センサーを処理できるため、既存の再構築方法において大きな制限を克服できる。
提案手法は,実時間グローバルフィールド推定のためのニューラルネットワークの実用化に向けた新たな道を開く。
関連論文リスト
- FLRNet: A Deep Learning Method for Regressive Reconstruction of Flow Field From Limited Sensor Measurements [0.2621730497733947]
スパースセンサ計測による流れ場再構成のための深層学習手法であるFLRNetを導入する。
各種流動条件およびセンサ構成下でのFLRNetの再構成能力と一般化性について検証した。
論文 参考訳(メタデータ) (2024-11-21T03:40:34Z) - DynST: Dynamic Sparse Training for Resource-Constrained Spatio-Temporal
Forecasting [24.00162014044092]
地球科学システムは、センサーの広範な展開に大きく依存している。
従来のセンサー配置アプローチでは、特定のアルゴリズムを使用してセンサーを設計および展開する。
本稿では,ダイナミックスパーストレーニングのコンセプトを初めて紹介し,重要なセンサデータを動的にフィルタリングすることを約束する。
論文 参考訳(メタデータ) (2024-03-05T12:31:24Z) - Reconstruction of Fields from Sparse Sensing: Differentiable Sensor
Placement Enhances Generalization [0.0]
我々は、ニューラルネットワークモデルのトレーニングにおいて、センサ配置を利用するために、微分可能なプログラミングを利用する一般的なアプローチを導入する。
本手法は, データの収集効率を大幅に向上させ, 面積の網羅性を高め, センサ配置の冗長性を低減できる可能性がある。
論文 参考訳(メタデータ) (2023-12-14T17:44:09Z) - Leveraging arbitrary mobile sensor trajectories with shallow recurrent
decoder networks for full-state reconstruction [4.243926243206826]
LSTM(long, short-term memory)ネットワークやデコーダネットワークのようなシーケンス・ツー・ベクター・モデルでは,動的情報を全状態空間推定にマッピング可能であることを示す。
ネットワークアーキテクチャの例外的な性能は、3つのアプリケーションで実証される。
論文 参考訳(メタデータ) (2023-07-20T21:42:01Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - One-Bit Compressive Sensing: Can We Go Deep and Blind? [15.231885712212083]
1ビット圧縮センシングは、1ビット雑音測定から基礎となるスパース信号の正確な回復に関係している。
盲点回復を実現する新しいデータ駆動型モデルベース手法を提案する。
論文 参考訳(メタデータ) (2022-03-13T16:06:56Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Adaptive Latent Space Tuning for Non-Stationary Distributions [62.997667081978825]
本稿では,ディープエンコーダ・デコーダ方式cnnの低次元潜在空間の適応チューニング法を提案する。
粒子加速器における時間変動荷電粒子ビームの特性を予測するためのアプローチを実証する。
論文 参考訳(メタデータ) (2021-05-08T03:50:45Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。