論文の概要: The MatrixX Solver For Argumentation Frameworks
- arxiv url: http://arxiv.org/abs/2109.14732v1
- Date: Wed, 29 Sep 2021 21:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:54:50.982042
- Title: The MatrixX Solver For Argumentation Frameworks
- Title(参考訳): argumentation FrameworksのためのMatrixXソルバー
- Authors: Maximilian Heinrich
- Abstract要約: MatrixX は Abstract Argumentation Frameworks の解決ツールです。
安定的で完全なセマンティクスで機能する。
ICCMA 2021コンペティション用に設計された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: MatrixX is a solver for Abstract Argumentation Frameworks. Offensive and
defensive properties of an Argumentation Framework are notated in a matrix
style. Rows and columns of this matrix are systematically reduced by the
solver. This procedure is implemented through the use of hash maps in order to
accelerate calculation time. MatrixX works for stable and complete semantics
and was designed for the ICCMA 2021 competition.
- Abstract(参考訳): MatrixX は Abstract Argumentation Frameworks の解決ツールです。
Argumentation Frameworkの攻撃的および防御的特性は、マトリックススタイルで通知される。
この行列のローと列は、ソルバによって体系的に還元される。
この手順は計算時間を高速化するためにハッシュマップを用いて実装されている。
MatrixXは安定的で完全なセマンティクスに対応しており、ICCMA 2021コンペティション用に設計された。
関連論文リスト
- Matrix Diagonalization as a Board Game: Teaching an Eigensolver the
Fastest Path to Solution [2.239917051803692]
行列対角化は科学計算の多くの分野の基盤となっている。
我々は,AlphaZeroフレームワークを用いた強化学習がヤコビ行列対角化を加速することを示す。
本研究は,数値線形代数の性能向上のために,機械学習を有望なツールとして活用する機会を浮き彫りにした。
論文 参考訳(メタデータ) (2023-06-16T03:31:58Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Low-Rank Updates of Matrix Square Roots [7.832944895330117]
行列平方根と逆平方根演算を考える。
行列に対する低階摂動が与えられたとき、(逆)平方根に対する低階近似補正が存在すると論じる。
次に、その方程式に対する低ランク解をどのように計算するかについて議論する。
論文 参考訳(メタデータ) (2022-01-31T12:05:33Z) - Fast Differentiable Matrix Square Root and Inverse Square Root [65.67315418971688]
微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad'e Approximants (MPA) を使用する方法がある。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
論文 参考訳(メタデータ) (2022-01-29T10:00:35Z) - Fast Differentiable Matrix Square Root [65.67315418971688]
微分可能な行列平方根を計算するために、より効率的な2つの変種を提案する。
前方伝播には, Matrix Taylor Polynomial (MTP) を用いる方法がある。
もう1つの方法は Matrix Pad'e Approximants (MPA) を使うことである。
論文 参考訳(メタデータ) (2022-01-21T12:18:06Z) - Sparse Factorization of Large Square Matrices [10.94053598642913]
本稿では,大面積の正方行列とスパースフルランク行列の積を近似する。
近似では、我々の手法は$Ntimes N$ full matrix に対して$N(log N)2$ non-zero number しか必要としない。
近似行列がスパースかつハイランクである場合,本手法により近似精度が向上することを示す。
論文 参考訳(メタデータ) (2021-09-16T18:42:21Z) - Boolean Matrix Factorization with SAT and MaxSAT [6.85316573653194]
我々のアプローチは、合理的な時間を保ちながら、既存のアプローチよりも優れた分解を可能にすることを示しています。
提案手法により,不完全行列の扱いも可能となる。
論文 参考訳(メタデータ) (2021-06-18T12:57:46Z) - Non-PSD Matrix Sketching with Applications to Regression and
Optimization [56.730993511802865]
非PSDおよび2乗根行列の次元削減法を提案する。
複数のダウンストリームタスクにこれらのテクニックをどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-06-16T04:07:48Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Adversarially-Trained Nonnegative Matrix Factorization [77.34726150561087]
非負行列ファクタリゼーションの逆学習版を検討する。
我々の定式化では、攻撃者は与えられたデータ行列に有界ノルムの任意の行列を追加する。
辞書と係数行列を最適化するために, 逆学習に触発された効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-04-10T13:13:17Z) - Fast Rank Reduction for Non-negative Matrices via Mean Field Theory [5.634825161148483]
構造標本空間上の対数線形モデルを用いて行列をモデル化することにより、平均場近似としてランクの減少を定式化する。
提案手法は,NMFとNMFの変種であるlraNMFよりも高速であり,合成および実世界のデータセット上での競合的低ランク近似誤差を実現することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-09T14:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。