論文の概要: Quantum-inspired tensor network for Earth science
- arxiv url: http://arxiv.org/abs/2301.07528v1
- Date: Sun, 15 Jan 2023 08:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 15:51:39.572193
- Title: Quantum-inspired tensor network for Earth science
- Title(参考訳): 地球科学のための量子インスパイアテンソルネットワーク
- Authors: Soronzonbold Otgonbaatar, Dieter Kranzlm\"uller
- Abstract要約: 我々は、地球科学において、物理情報ニューラルネットワーク(PINN)のトレーニング可能なパラメータを圧縮するために量子インスパイアされたテンソルネットワークを用いる。
PINNは物理学の法則を強制することによって罰せられるDLモデルであり、特に物理学の法則はDLモデルに組み込まれている。
量子インスパイアされたテンソルネットワークは、大きなデータセット上で量子機械学習モデルを効率的に表現し、訓練するためのネイティブな定式化でもある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) is one of many successful methodologies to extract
informative patterns and insights from ever increasing noisy large-scale
datasets (in our case, satellite images). However, DL models consist of a few
thousand to millions of training parameters, and these training parameters
require tremendous amount of electrical power for extracting informative
patterns from noisy large-scale datasets (e.g., computationally expensive).
Hence, we employ a quantum-inspired tensor network for compressing trainable
parameters of physics-informed neural networks (PINNs) in Earth science. PINNs
are DL models penalized by enforcing the law of physics; in particular, the law
of physics is embedded in DL models. In addition, we apply tensor decomposition
to HyperSpectral Images (HSIs) to improve their spectral resolution. A
quantum-inspired tensor network is also the native formulation to efficiently
represent and train quantum machine learning models on big datasets on GPU
tensor cores. Furthermore, the key contribution of this paper is twofold: (I)
we reduced a number of trainable parameters of PINNs by using a
quantum-inspired tensor network, and (II) we improved the spectral resolution
of remotely-sensed images by employing tensor decomposition. As a benchmark
PDE, we solved Burger's equation. As practical satellite data, we employed HSIs
of Indian Pine, USA and of Pavia University, Italy.
- Abstract(参考訳): ディープラーニング(DL)は、ノイズの多い大規模データセット(この場合、衛星画像)から情報的パターンと洞察を抽出する多くの成功手法の1つである。
しかし、DLモデルは数千から数百万のトレーニングパラメータで構成されており、これらのトレーニングパラメータはノイズの多い大規模データセット(例えば計算コスト)から情報パターンを抽出するために膨大な量の電力を必要とする。
そこで我々は,量子インスパイアされたテンソルネットワークを用いて,物理に変形したニューラルネットワーク(pinns)の学習可能なパラメータを圧縮する。
PINNは物理学の法則を強制することによって罰せられるDLモデルであり、特に物理学の法則はDLモデルに組み込まれている。
さらに,ハイパースペクトル画像(hsis)にテンソル分解を適用し,スペクトル分解能を向上させる。
量子インスパイアされたテンソルネットワークは、gpuテンソルコア上のビッグデータ上で量子機械学習モデルを効率的に表現し、トレーニングするためのネイティブな定式化でもある。
さらに,本論文の重要な貢献は2つある: (I) 量子インスパイアされたテンソルネットワークを用いてPINNのトレーニング可能なパラメータを減らし, (II) テンソル分解を用いてリモートセンシング画像のスペクトル分解を改善した。
ベンチマーク PDE として,Burger の方程式を解いた。
実際の衛星データとして,インド・パインとイタリア・パヴィア大学のHSIを用いた。
関連論文リスト
- Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Quantum Phase Recognition using Quantum Tensor Networks [0.0]
本稿では,教師付き学習タスクのためのテンソルネットワークにインスパイアされた浅部変分アンザツに基づく量子機械学習手法について検討する。
マルチスケールエンタングルメント再正規化アンサッツ (MERA) とツリーテンソルネットワーク (TTN) がパラメタライズド量子回路にインスパイアされた場合、テストセットの精度が$geq 98%に達する。
論文 参考訳(メタデータ) (2022-12-12T19:29:07Z) - TensorLy-Quantum: Quantum Machine Learning with Tensor Methods [67.29221827422164]
PyTorch APIを採用した量子回路シミュレーションのためのPythonライブラリを作成します。
Ly-Quantumは、単一のGPU上で数百のキュービット、複数のGPU上で数千のキュービットにスケールすることができる。
論文 参考訳(メタデータ) (2021-12-19T19:26:17Z) - Patch-based medical image segmentation using Quantum Tensor Networks [1.5899411215927988]
テンソルネットワークを用いた教師付き設定で画像分割を定式化する。
鍵となるアイデアは、まず画像パッチのピクセルを指数関数的に高次元の特徴空間に引き上げることである。
提案モデルの性能を3つの2次元および1つの3次元バイオメディカルイメージングデータセットで評価した。
論文 参考訳(メタデータ) (2021-09-15T07:54:05Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Exploring Quantum Perceptron and Quantum Neural Network structures with
a teacher-student scheme [0.0]
量子カーネル法や量子ニューラルネットワーク(QNN)のような量子機械学習モデルを構築し、分類タスクを実行するために、短期量子デバイスを使用することができる。
本研究の目的は、異なるQNNアーキテクチャを体系的に比較し、その相対表現力と教師-学生間のスキームを評価することである。
我々は特に、Tacchino et. al. citeTacchino1の最近の研究に触発された量子パーセプトロンモデルに注目し、もともとP'erez-Salinas et. al. citeによって導入されたデータ再ロードスキームと比較する。
論文 参考訳(メタデータ) (2021-05-04T13:13:52Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。