論文の概要: k-Contextuality as a Heuristic for Memory Separations in Learning
- arxiv url: http://arxiv.org/abs/2507.11604v1
- Date: Tue, 15 Jul 2025 18:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.090479
- Title: k-Contextuality as a Heuristic for Memory Separations in Learning
- Title(参考訳): 学習における記憶分離のヒューリスティックとしてのk-Contextuality
- Authors: Mariesa H. Teo, Willers Yang, James Sud, Teague Tomesh, Frederic T. Chong, Eric R. Anschuetz,
- Abstract要約: 我々は、強いk-文脈性と呼ばれる文脈性の新しい量化器を定義する。
この相関測度は、量子生成モデルに対して類似のリソースローバウンドを誘導しない。
強いk-コンテキスト性は、古典的コンピュータでは難しいが量子コンピュータでは難しい問題を特定するのに役立つ尺度として現れる。
- 参考スコア(独自算出の注目度): 1.9827715138685622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical machine learning models struggle with learning and prediction tasks on data sets exhibiting long-range correlations. Previously, the existence of a long-range correlational structure known as contextuality was shown to inhibit efficient classical machine learning representations of certain quantum-inspired sequential distributions. Here, we define a new quantifier of contextuality we call strong k-contextuality, and prove that any translation task exhibiting strong k-contextuality is unable to be represented to finite relative entropy by a classical streaming model with fewer than k latent states. Importantly, this correlation measure does not induce a similar resource lower bound for quantum generative models. Using this theory as motivation, we develop efficient algorithms which estimate our new measure of contextuality in sequential data, and empirically show that this estimate is a good predictor for the difference in performance of resource-constrained classical and quantum Bayesian networks in modeling the data. Strong k-contextuality thus emerges as a measure to help identify problems that are difficult for classical computers, but may not be for quantum computers.
- Abstract(参考訳): 古典的な機械学習モデルは、長距離相関を示すデータセットの学習と予測タスクに苦労する。
これまで、文脈性として知られる長距離相関構造の存在は、量子に着想を得たシーケンシャル分布の効率的な古典的機械学習表現を阻害することが示されていた。
ここでは、強いk-文脈性(strong k-contextuality)と呼ばれる文脈性の新しい量化器を定義し、強いk-文脈性を示す翻訳タスクが k 未満の古典的ストリーミングモデルによって有限相対エントロピーに表現できないことを証明する。
重要なことに、この相関測度は、量子生成モデルに対する同様のリソースの低いバウンドを誘導しない。
この理論をモチベーションとして用いて、逐次データにおける文脈性の新しい尺度を推定する効率的なアルゴリズムを開発し、この推定がデータモデリングにおけるリソース制約付き古典的および量子ベイズ的ネットワークの性能の差を予測できることを示す。
したがって、強いk-コンテキスト性は、古典的コンピュータでは難しいが量子コンピュータでは難しい問題を特定するのに役立つ尺度として現れる。
関連論文リスト
- Quantum Algorithms for Causal Estimands [0.0]
因果機械学習は、反事実事象の予測結果を推定することによって問題を解決することを目的としている。
これらの因果アルゴリズムが量子エンハンスメントの機会を提供するかどうかについては、オープンな疑問である。
論文 参考訳(メタデータ) (2025-05-19T08:58:09Z) - The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Arbitrary Polynomial Separations in Trainable Quantum Machine Learning [0.8532753451809455]
量子機械学習の最近の理論的結果は、量子ニューラルネットワーク(QNN)の表現力とトレーニング可能性との一般的なトレードオフを示している。
我々は、文脈性が表現性分離の源であることを示し、この性質を持つ他の学習タスクが量子学習アルゴリズムの使用の自然な設定である可能性を示唆している。
論文 参考訳(メタデータ) (2024-02-13T17:12:01Z) - Exploring the Limits of Historical Information for Temporal Knowledge
Graph Extrapolation [59.417443739208146]
本稿では,歴史的コントラスト学習の新しい学習枠組みに基づくイベント予測モデルを提案する。
CENETは、最も潜在的なエンティティを識別するために、歴史的および非歴史的依存関係の両方を学ぶ。
提案したモデルを5つのベンチマークグラフで評価する。
論文 参考訳(メタデータ) (2023-08-29T03:26:38Z) - Exponential separations between classical and quantum learners [2.209921757303168]
我々は,定義の微妙な違いが,学習者が満足して解決すべき要件や課題を著しく異なるものにする可能性について論じる。
本稿では,データ生成関数の同定に古典的困難を主眼として,2つの新たな学習分離を提案する。
論文 参考訳(メタデータ) (2023-06-28T08:55:56Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Contextuality and inductive bias in quantum machine learning [0.0]
機械学習の一般化は、しばしば、データに存在する構造をモデルクラスの帰納バイアスにエンコードする能力に依存する。
量子文脈性(quantum contextuality) - 計算上の優位性にリンクした非古典性の形式。
我々は、関連する帰納バイアスを伴う量子学習モデルの構築方法を示し、おもちゃの問題を通して、それらが対応する古典的代理モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-02T19:07:26Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Interpretable Quantum Advantage in Neural Sequence Learning [2.575030923243061]
非ガウス測度を用いたガウス演算に基づくニューラルネットワーク列モデルと反復モデルとの相対表現力について検討した。
我々は、2つのモデルクラスの表現性において、無条件メモリ分離の源として量子テクスチュアリティ(quantum contextuality)を指摘する。
このようにして、我々の導入した量子モデルが、実際にさえも古典的モデルの状態を上回り得ることを実証する。
論文 参考訳(メタデータ) (2022-09-28T18:34:04Z) - On Long-Tailed Phenomena in Neural Machine Translation [50.65273145888896]
最先端のニューラルネットワーク翻訳(NMT)モデルは、低周波トークンの生成に苦労する。
条件付きテキスト生成における構造的依存関係にモデルトレーニングを適応させるために,新たな損失関数である反焦点損失を提案する。
提案手法は,複数の機械翻訳(MT)データセットに対して有効であり,クロスエントロピーよりも顕著に向上することを示す。
論文 参考訳(メタデータ) (2020-10-10T07:00:57Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。