論文の概要: $C^*$-Algebraic Machine Learning: Moving in a New Direction
- arxiv url: http://arxiv.org/abs/2402.02637v1
- Date: Sun, 4 Feb 2024 23:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 18:23:59.871182
- Title: $C^*$-Algebraic Machine Learning: Moving in a New Direction
- Title(参考訳): C^*$-algebraic Machine Learning: 新しい方向への移行
- Authors: Yuka Hashimoto, Masahiro Ikeda, and Hachem Kadri
- Abstract要約: 我々は機械学習研究の新しい方向性を提案する:$C*$-algebraic ML $-$$C*$-algebraと機械学習のクロスファーティライズ。
機械学習に$C*$-algebrasを使用する理由と方法を説明し、技術的な考察を提供する。
C*$-algebraic MLのオープンな質問や課題について議論し、今後の開発やアプリケーションについて考えます。
- 参考スコア(独自算出の注目度): 13.23700804428796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has a long collaborative tradition with several fields of
mathematics, such as statistics, probability and linear algebra. We propose a
new direction for machine learning research: $C^*$-algebraic ML $-$ a
cross-fertilization between $C^*$-algebra and machine learning. The
mathematical concept of $C^*$-algebra is a natural generalization of the space
of complex numbers. It enables us to unify existing learning strategies, and
construct a new framework for more diverse and information-rich data models. We
explain why and how to use $C^*$-algebras in machine learning, and provide
technical considerations that go into the design of $C^*$-algebraic learning
models in the contexts of kernel methods and neural networks. Furthermore, we
discuss open questions and challenges in $C^*$-algebraic ML and give our
thoughts for future development and applications.
- Abstract(参考訳): 機械学習は、統計学、確率、線形代数など、数学のいくつかの分野と長い協力関係を持つ。
c^*$-algebraic ml $-$ $c^*$-algebraと機械学習の相互受精である。
c^*$-代数の数学的概念は複素数の空間の自然な一般化である。
これにより、既存の学習戦略を統一し、より多様で情報豊富なデータモデルのための新しいフレームワークを構築することができます。
本稿では、機械学習における$c^*$-algebrasの使用理由と利用方法を説明し、カーネルメソッドとニューラルネットワークのコンテキストにおける$c^*$-algebraic学習モデルの設計に係わる技術的考察を提供する。
さらに,$c^*$-algebraic mlにおけるオープン質問と課題を議論し,今後の開発と応用への考え方を述べる。
関連論文リスト
- CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Abstract Visual Reasoning: An Algebraic Approach for Solving Raven's
Progressive Matrices [9.092255360641163]
抽象的推論に適した新しい推論フレームワークである代数的機械推論を導入する。
我々のフレームワークは、与えられた解集合から正しい解を選択でき、また与えられた質問行列のみで正しい解を生成することができる。
I-RAVENデータセットの実験では、全体的な9,3.2%の精度が得られ、現在の最先端の精度7,7.0%の精度を著しく上回り、8,4.4%の精度で人間のパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2023-03-21T10:34:39Z) - AI2: The next leap toward native language based and explainable machine
learning framework [1.827510863075184]
提案されたフレームワークは、AI$2$と名付けられ、自然言語インターフェースを使用して、非スペシャリストが機械学習アルゴリズムの恩恵を受けることができる。
AI$2$フレームワークの主なコントリビューションは、ユーザーが機械学習アルゴリズムを英語で呼び出すことで、インターフェースの使用が容易になる。
もうひとつのコントリビューションは、データの適切な記述とロードを支援する前処理モジュールだ。
論文 参考訳(メタデータ) (2023-01-09T14:48:35Z) - Quantum teleportation in the commuting operator framework [63.69764116066747]
我々は、相対可換群 $N'cap M$ に対して、Nsubseteq M$ と tracial von Neumann algebra の大きいクラスに対する非バイアス付きテレポーテーションスキームを提示する。
N$ に対する厳密なテレポーテーションスキームは、必ずしも正則ユニタリな Pimsner-Popa 基底 $M_n(mathbbC)$ over$N'$ から生じる。
論文 参考訳(メタデータ) (2022-08-02T00:20:46Z) - $C^*$-algebra Net: A New Approach Generalizing Neural Network Parameters
to $C^*$-algebra [3.819811681211661]
ニューラルネットワークモデルのパラメータを$C*$-algebra値に一般化する新しいフレームワークを提案する。
このフレームワークは,限られたサンプル数であっても,データの特徴を学習することができることを示す。
論文 参考訳(メタデータ) (2022-06-20T00:27:28Z) - Uncertainties in Quantum Measurements: A Quantum Tomography [52.77024349608834]
量子系 $S$ に関連する可観測物は非可換代数 $mathcal A_S$ を形成する。
密度行列 $rho$ は可観測物の期待値から決定できると仮定される。
アーベル代数は内部自己同型を持たないので、測定装置は可観測物の平均値を決定することができる。
論文 参考訳(メタデータ) (2021-12-14T16:29:53Z) - Agnostic learning with unknown utilities [70.14742836006042]
現実世界の多くの問題において、決定の効用は基礎となる文脈である$x$ と decision $y$ に依存する。
我々はこれを未知のユーティリティによる不可知学習として研究する。
サンプルされた点のみのユーティリティを推定することで、よく一般化した決定関数を学習できることを示す。
論文 参考訳(メタデータ) (2021-04-17T08:22:04Z) - A Weighted Quiver Kernel using Functor Homology [10.279748604797911]
我々のモデルは、有向グラフ $Q$ であり、集合 $Q_1$ の矢印に対して $w$ の重み関数 $Q$ を備える。
W$ がベクトル空間 $M$ 上の表現を備えるとき、ホモロジー代数の標準的な方法により、ホモロジー群 $H_*(Q,w;M)$ を定義できる。
論文 参考訳(メタデータ) (2020-09-27T19:35:28Z) - On the Theory of Transfer Learning: The Importance of Task Diversity [114.656572506859]
一般的な関数クラス$mathcalF circ MathcalH$において、$f_j circ h$という形の関数によってパラメータ化される$t+1$タスクを考える。
多様なトレーニングタスクに対して、最初の$t$のトレーニングタスク間で共有表現を学ぶのに必要なサンプルの複雑さが、$C(mathcalH) + t C(mathcalF)$であることを示す。
論文 参考訳(メタデータ) (2020-06-20T20:33:59Z) - AlgebraNets [35.311476442807766]
本研究では, enwiki8 と WikiText-103 データセットを用いて代用代数学を数値表現として研究する。
我々は$mathbbC$, $mathbbH$, $M_2(mathbbR)$, $M_3(mathbbR)$, $M_4(mathbbR)$を考える。
これらの代数の乗法は実乗法よりも計算密度が高い。
論文 参考訳(メタデータ) (2020-06-12T17:51:20Z) - The Information Bottleneck Problem and Its Applications in Machine
Learning [53.57797720793437]
近年,機械学習システムの推論能力が急上昇し,社会の様々な側面において重要な役割を担っている。
情報ボトルネック(IB)理論は、ディープラーニング(DL)システムを分析するための大胆な情報理論パラダイムとして登場した。
本チュートリアルでは,この抽象原理の情報理論的起源と最近のDLへの影響について考察する。
論文 参考訳(メタデータ) (2020-04-30T16:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。