論文の概要: Machine learning discovers invariants of braids and flat braids
- arxiv url: http://arxiv.org/abs/2307.12185v1
- Date: Sat, 22 Jul 2023 23:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 17:29:58.586559
- Title: Machine learning discovers invariants of braids and flat braids
- Title(参考訳): 機械学習がブレイドとフラットブレイドの不変性を発見
- Authors: Alexei Lisitsa, Mateo Salles, Alexei Vernitski
- Abstract要約: 機械学習を用いて、ブレイド(またはフラットブレイド)の例を自明または非自明と分類する。
我々は、フラットブレイドの完全な不変量を含む、新しい便利なブレイド不変量を求める。
- 参考スコア(独自算出の注目度): 2.4063592468412267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use machine learning to classify examples of braids (or flat braids) as
trivial or non-trivial. Our ML takes form of supervised learning using neural
networks (multilayer perceptrons). When they achieve good results in
classification, we are able to interpret their structure as mathematical
conjectures and then prove these conjectures as theorems. As a result, we find
new convenient invariants of braids, including a complete invariant of flat
braids.
- Abstract(参考訳): 機械学習を用いて、ブレイド(またはフラットブレイド)の例を自明または非自明と分類する。
我々のMLは、ニューラルネットワーク(マルチ層パーセプトロン)を用いた教師あり学習の形態をとっている。
分類において良い結果が得られると、それらの構造を数学的予想として解釈し、それらの予想を定理として証明することができる。
その結果、平面ブレイドの完全不変量を含むブレイドの新たな便利な不変量が得られる。
関連論文リスト
- Learning to be Simple [0.0]
有限群を含む構造化された数学的データを理解するために機械学習を用いる。
有限単純群の生成元に必要な性質に関する定理を導出する。
我々の研究は、機械学習の助けを借りて数学の新しい予想と定理を生成する可能性を強調している。
論文 参考訳(メタデータ) (2023-12-08T19:00:00Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - What learning algorithm is in-context learning? Investigations with
linear models [87.91612418166464]
本稿では,トランスフォーマーに基づくインコンテキスト学習者が標準学習アルゴリズムを暗黙的に実装する仮説について検討する。
訓練された文脈内学習者は、勾配降下、隆起回帰、および正確な最小二乗回帰によって計算された予測値と密に一致していることを示す。
文脈内学習者がこれらの予測器とアルゴリズム的特徴を共有するという予備的証拠。
論文 参考訳(メタデータ) (2022-11-28T18:59:51Z) - Braids, Motions and Topological Quantum Computing [0.0]
量子計算のトポロジカルモデル(英語版)は、本質的にトポロジカルな物質相の任意のオン上に構築されたフォールトトレラントモデルである。
ブレイド群が重要な役割を担い、この調査では、ブレイドの数学的研究が理論に不可欠である方法の選択に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-24T20:31:25Z) - Group-invariant tensor train networks for supervised learning [0.0]
正規行列表現の作用の下で不変なテンソルの基底を構成するための新しい数値アルゴリズムを導入する。
その後、グループ不変テンソルをグループ不変テンソルトレインネットワークに結合し、教師付き機械学習モデルとして使用することができる。
論文 参考訳(メタデータ) (2022-06-30T06:33:08Z) - Compatibility of Braiding and Fusion on Wire Networks [0.0]
グラフ上での粒子の交換、あるいはより具体的には量子ワイヤのネットワーク上での粒子の交換は、フォールトトレラントな量子計算を行う手段として提案されている。
通常の平面正則解だけでなく、より一般的なブレイド作用も見出す。
我々はこれをAbelian、Fibonacci、Ising fusion Ruleで説明する。
論文 参考訳(メタデータ) (2022-02-16T17:28:06Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。