論文の概要: Constrained Neural Networks for Interpretable Heuristic Creation to Optimise Computer Algebra Systems
- arxiv url: http://arxiv.org/abs/2404.17508v1
- Date: Fri, 26 Apr 2024 16:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 12:35:26.088382
- Title: Constrained Neural Networks for Interpretable Heuristic Creation to Optimise Computer Algebra Systems
- Title(参考訳): コンピュータ代数システム最適化のための解釈可能なヒューリスティック創造のための制約付きニューラルネットワーク
- Authors: Dorian Florescu, Matthew England,
- Abstract要約: 本稿では,記号計算研究における機械学習技術を活用した新しい手法を提案する。
筒状分解におけるよく知られた人間設計変数の順序付けが、ニューラルネットワークの制約としてどのように表現されるかを説明する。
これにより、マシンラーニングメソッドを使用してさらなる最適化が可能になり、もともとの人間設計のものと同じようなサイズの新しいネットワークが生まれる。
- 参考スコア(独自算出の注目度): 2.8402080392117757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new methodology for utilising machine learning technology in symbolic computation research. We explain how a well known human-designed heuristic to make the choice of variable ordering in cylindrical algebraic decomposition may be represented as a constrained neural network. This allows us to then use machine learning methods to further optimise the heuristic, leading to new networks of similar size, representing new heuristics of similar complexity as the original human-designed one. We present this as a form of ante-hoc explainability for use in computer algebra development.
- Abstract(参考訳): 本稿では,記号計算研究における機械学習技術を活用した新しい手法を提案する。
筒状代数分解における可変次数の選択を制約ニューラルネットワークとして表すための、よく知られた人間設計のヒューリスティックについて説明する。
これにより、機械学習メソッドを使用してヒューリスティックをさらに最適化し、同じサイズの新しいネットワークが生まれ、オリジナルの人間設計のものと類似した複雑さの新たなヒューリスティックを表現します。
我々はこれを,計算機代数開発に使用するアンテホックな説明可能性の一形態として提示する。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Reasoning Algorithmically in Graph Neural Networks [1.8130068086063336]
ニューラルネットワークの適応学習能力にアルゴリズムの構造的および規則に基づく推論を統合することを目的としている。
この論文は、この領域の研究に理論的および実践的な貢献を提供する。
論文 参考訳(メタデータ) (2024-02-21T12:16:51Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Explainable AI Insights for Symbolic Computation: A case study on
selecting the variable ordering for cylindrical algebraic decomposition [0.0]
本稿では、このような機械学習モデルに説明可能なAI(XAI)技術を用いることで、記号計算に新たな洞察を与えることができるかどうかを考察する。
本稿では、円筒代数分解の変数順序付けをMLを用いて選択するケーススタディを提案する。
論文 参考訳(メタデータ) (2023-04-24T15:05:04Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Gaussian Process Surrogate Models for Neural Networks [6.8304779077042515]
科学と工学において、モデリング(英: modeling)とは、内部プロセスが不透明な複雑なシステムを理解するために用いられる方法論である。
本稿では,ガウス過程を用いたニューラルネットワークの代理モデルのクラスを構築する。
提案手法は,ニューラルネットワークのスペクトルバイアスに関連する既存の現象を捕捉し,サロゲートモデルを用いて現実的な問題を解決することを実証する。
論文 参考訳(メタデータ) (2022-08-11T20:17:02Z) - Parametric machines: a fresh approach to architecture search [0.0]
単純な機械がより複雑な機械にどのように組み合わされるかを示す。
ニューラルネットワークとニューラル常微分方程式を一般化する有限・無限深度機械について検討する。
論文 参考訳(メタデータ) (2020-07-06T14:27:06Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。