論文の概要: Group-Invariant Quantum Machine Learning
- arxiv url: http://arxiv.org/abs/2205.02261v1
- Date: Wed, 4 May 2022 18:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 14:23:50.235457
- Title: Group-Invariant Quantum Machine Learning
- Title(参考訳): グループ不変量子機械学習
- Authors: Martin Larocca, Frederic Sauvage, Faris M. Sbahi, Guillaume Verdon,
Patrick J. Coles, M. Cerezo
- Abstract要約: 量子機械学習(QML)モデルは、量子状態に符号化されたデータから学習することを目的としている。
群不変モデルは、データセットに関連する対称性群 $mathfrakG$ の任意の要素の作用の下で不変な出力を生成する。
本稿では,$mathfrakG$-invariantモデルの設計の基盤となる理論的結果について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) models are aimed at learning from data encoded
in quantum states. Recently, it has been shown that models with little to no
inductive biases (i.e., with no assumptions about the problem embedded in the
model) are likely to have trainability and generalization issues, especially
for large problem sizes. As such, it is fundamental to develop schemes that
encode as much information as available about the problem at hand. In this work
we present a simple, yet powerful, framework where the underlying invariances
in the data are used to build QML models that, by construction, respect those
symmetries. These so-called group-invariant models produce outputs that remain
invariant under the action of any element of the symmetry group $\mathfrak{G}$
associated to the dataset. We present theoretical results underpinning the
design of $\mathfrak{G}$-invariant models, and exemplify their application
through several paradigmatic QML classification tasks including cases when
$\mathfrak{G}$ is a continuous Lie group and also when it is a discrete
symmetry group. Notably, our framework allows us to recover, in an elegant way,
several well known algorithms for the literature, as well as to discover new
ones. Taken together, we expect that our results will help pave the way towards
a more geometric and group-theoretic approach to QML model design.
- Abstract(参考訳): 量子機械学習(qml)モデルは、量子状態にエンコードされたデータから学習することを目的としている。
近年,帰納的バイアスがほとんどないし全くないモデル(すなわち,モデルに埋め込まれた問題を想定しないモデル)は,特に大きな問題サイズにおいて,訓練可能性や一般化の問題を持つ可能性が指摘されている。
そのため、現状の問題に関する情報をできるだけ多くエンコードする手法を開発することが不可欠である。
この作業では、データ内の基盤となる不変性をQMLモデルの構築に使用し、構築によってそれらの対称性を尊重する、シンプルで強力なフレームワークを提示します。
これらのいわゆる群不変モデルは、データセットに関連する対称性群 $\mathfrak{G}$ の任意の要素の作用の下で不変な出力を生成する。
我々は,$\mathfrak{g}$-invariant モデルの設計を基礎とする理論的結果を示し,$\mathfrak{g}$ が連続リー群である場合や離散対称性群である場合など,いくつかのパラダイム的 qml 分類タスクを通じてその応用例を示す。
特に、私たちのフレームワークは、文学でよく知られたいくつかのアルゴリズムをエレガントな方法で復元し、新しいものを見つけることができます。
まとめると、我々の結果はQMLモデル設計に対するより幾何学的でグループ理論的なアプローチへの道を開くのに役立つと期待する。
関連論文リスト
- Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Provably Trainable Rotationally Equivariant Quantum Machine Learning [0.6435156676256051]
量子フーリエ変換上に構築された回転同変QMLモデルの族を導入する。
我々は,シリコン中のリン不純物の走査型トンネル顕微鏡画像のデータセット上で,我々のモデルを数値的に検証した。
論文 参考訳(メタデータ) (2023-11-10T05:10:06Z) - Approximately Equivariant Quantum Neural Network for $p4m$ Group
Symmetries in Images [30.01160824817612]
本研究では、平面$p4m$対称性に基づく画像分類のための同変量子畳み込みニューラルネットワーク(EquivQCNNs)を提案する。
2次元イジングモデルの位相検出や拡張MNISTデータセットの分類など、さまざまなユースケースでテストされた結果を示す。
論文 参考訳(メタデータ) (2023-10-03T18:01:02Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Reflection Equivariant Quantum Neural Networks for Enhanced Image
Classification [0.7232471205719458]
我々は、データに固有の対称性を明示的に尊重する新しい機械学習モデル、いわゆる幾何量子機械学習(GQML)を構築した。
これらのネットワークは、複雑な実世界の画像データセットに対する一般的なアンサーゼを一貫して、そして著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-01T04:10:26Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Theoretical Guarantees for Permutation-Equivariant Quantum Neural
Networks [0.0]
等変量子ニューラルネットワーク(QNN)の構築方法を示す。
我々は、不毛の高原に苦しめられず、すぐに過度なパラメータ化に達し、少量のデータからよく一般化されることを証明した。
我々の研究は、同変QNNに対する最初の理論的保証を提供し、GQMLの極端なパワーとポテンシャルを示している。
論文 参考訳(メタデータ) (2022-10-18T16:35:44Z) - Representation Theory for Geometric Quantum Machine Learning [0.0]
古典的機械学習の最近の進歩は、問題の対称性を符号化する帰納的バイアスを持つモデルを作成することにより、性能が大幅に向上することを示している。
幾何学量子機械学習(GQML)は、問題固有の量子認識モデルの開発において重要な役割を果たす。
本稿では、離散的および連続的なグループを含む主要な例によって駆動される量子学習の光学から表現論ツールを紹介する。
論文 参考訳(メタデータ) (2022-10-14T17:25:36Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。