論文の概要: Learning Physics through Images: An Application to Wind-Driven Spatial
Patterns
- arxiv url: http://arxiv.org/abs/2202.01762v1
- Date: Thu, 3 Feb 2022 18:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 15:46:19.588309
- Title: Learning Physics through Images: An Application to Wind-Driven Spatial
Patterns
- Title(参考訳): 画像による物理学習:風による空間パターンへの応用
- Authors: M. Giselle Fern\'andez-Godino, Donald D. Lucas, and Qingkai Kong
- Abstract要約: コンピューターが画像やビデオを観察することで物理を学べる強力な新しいアルゴリズムが利用可能だ。
このアイデアにインスパイアされた私たちは、物理量を使って機械学習モデルを訓練する代わりに、画像、すなわちピクセル情報を使ってそれらを訓練しました。
この研究のために、そして概念実証として、関心の物理学は風駆動の空間パターンである。これらの現象の例としては、エアロゾル砂丘の特徴や火山灰の堆積、山火事煙、大気汚染梅などがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For centuries, scientists have observed nature to understand the laws that
govern the physical world. The traditional process of turning observations into
physical understanding is slow. Imperfect models are constructed and tested to
explain relationships in data. Powerful new algorithms are available that can
enable computers to learn physics by observing images and videos. Inspired by
this idea, instead of training machine learning models using physical
quantities, we trained them using images, that is, pixel information. For this
work, and as a proof of concept, the physics of interest are wind-driven
spatial patterns. Examples of these phenomena include features in Aeolian dunes
and the deposition of volcanic ash, wildfire smoke, and air pollution plumes.
We assume that the spatial patterns were collected by an imaging device that
records the magnitude of the logarithm of deposition as a red, green, blue
(RGB) color image with channels containing values ranging from 0 to 255. In
this paper, we explore deep convolutional neural network-based autoencoders to
exploit relationships in wind-driven spatial patterns, which commonly occur in
geosciences, and reduce their dimensionality. Reducing the data dimension size
with an encoder allows us to train regression models linking geographic and
meteorological scalar input quantities to the encoded space. Once this is
achieved, full predictive spatial patterns are reconstructed using the decoder.
We demonstrate this approach on images of spatial deposition from a pollution
source, where the encoder compresses the dimensionality to 0.02% of the
original size and the full predictive model performance on test data achieves
an accuracy of 92%.
- Abstract(参考訳): 何世紀もの間、科学者は物理的世界を支配する法則を理解するために自然を観察してきた。
観察を物理的理解に変える伝統的なプロセスは遅い。
不完全なモデルは、データ内の関係を説明するために構築され、テストされる。
コンピューターが画像やビデオを観察することで物理を学べる強力な新しいアルゴリズムが利用可能だ。
このアイデアに触発されて、物理量を使って機械学習モデルをトレーニングするのではなく、画像、すなわちピクセル情報を使ってトレーニングしました。
この研究と概念の証明のために、関心のある物理学は風による空間パターンである。
これらの現象の例としては、エオリアの砂丘の特徴、火山灰の堆積、山火事煙、大気汚染梅などがある。
その結果, 堆積の対数の大きさを赤色, 緑色, 青色 (rgb) の色画像として記録する撮像装置で空間パターンを収集し, 0~255の範囲の値を含むチャンネルを推定した。
本稿では,深層畳み込みニューラルネットワークを用いたオートエンコーダを用いて,地学でよく見られる風による空間パターンの関係を活用し,その次元性を低減する。
エンコーダでデータサイズを小さくすることで、地理的および気象的なスカラー入力量をエンコーダ空間にリンクする回帰モデルをトレーニングできる。
これを達成すると、デコーダを用いて完全な予測空間パターンを再構築する。
本手法は, 汚染源からの空間沈着像に対して, エンコーダが原寸法の0.02%まで次元を圧縮し, 試験データにおける完全な予測モデル性能を92%の精度で達成する手法である。
関連論文リスト
- Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Neural network processing of holographic images [0.0]
空飛ぶ雲の粒子イメージ装置であるHOLODECは、一定量の雲のホログラフィック画像をキャプチャして、雲の粒子の種類と大きさを特徴付ける。
本稿では,ニューラルセグメンテーションモデル,GPU,計算並列化を利用したホログラム処理アルゴリズムHolodecMLを提案する。
論文 参考訳(メタデータ) (2022-03-16T19:20:37Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Filtered-CoPhy: Unsupervised Learning of Counterfactual Physics in Pixel
Space [43.654464513994164]
高次元データ(画像,ビデオ)における因果関係の学習方法を提案する。
我々の手法は、いかなる根拠となる真実の位置や他の対象物やシーン特性の知識や監督も必要としない。
我々は,画素空間における予測のための新しい挑戦的かつ慎重に設計された反実的ベンチマークを導入する。
論文 参考訳(メタデータ) (2022-02-01T12:18:30Z) - Towards Learning a Vocabulary of Visual Concepts and Operators using
Deep Neural Networks [0.0]
我々は、MNIST画像を用いて訓練されたモデルの学習された特徴マップを分析し、より説明可能な予測を行う。
MNIST画像を用いて学習した変分オートエンコーダから視覚概念を生成する。
再建損失(平均2乗誤差)を初期値120から60に減らすことができた。
論文 参考訳(メタデータ) (2021-09-01T16:34:57Z) - Towards an Interpretable Latent Space in Structured Models for Video
Prediction [30.080907495461876]
基礎となる物理力学が支配するビデオにおける将来のフレーム予測の課題に焦点をあてる。
我々は、オブジェクト中心のモデル、すなわち、オブジェクト表現を明示的に扱うモデルで作業し、潜在空間における損失を伝播する。
論文 参考訳(メタデータ) (2021-07-16T05:37:16Z) - The Intrinsic Dimension of Images and Its Impact on Learning [60.811039723427676]
自然画像データは従来の画素表現の高次元にもかかわらず低次元構造を示すと広く信じられている。
本研究では,一般的なデータセットに次元推定ツールを適用し,深層学習における低次元構造の役割を検討する。
論文 参考訳(メタデータ) (2021-04-18T16:29:23Z) - Generating Physically-Consistent Satellite Imagery for Climate Visualizations [53.61991820941501]
我々は,将来的な洪水や森林再生イベントの合成衛星画像を作成するために,生成的敵ネットワークを訓練する。
純粋なディープラーニングベースのモデルでは、洪水の可視化を生成することができるが、洪水の影響を受けない場所では幻覚的な洪水が発生する。
我々は,地球観測におけるセグメンテーションガイドによる画像と画像の変換のためのコードとデータセットを公開している。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z) - Learning to Identify Physical Parameters from Video Using Differentiable
Physics [2.15242029196761]
本稿では,アクション条件付きビデオ表現ネットワーク内の物理エンジンを用いて物理潜在表現を学習する手法を提案する。
われわれのネットワークは、画像のエンコードと、ビデオやアクションシーケンスからの質量や摩擦などの物理的特性の同定を学習できることを実証する。
論文 参考訳(メタデータ) (2020-09-17T13:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。