論文の概要: A Regression Tsetlin Machine with Integer Weighted Clauses for Compact
Pattern Representation
- arxiv url: http://arxiv.org/abs/2002.01245v1
- Date: Tue, 4 Feb 2020 12:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 02:23:36.051573
- Title: A Regression Tsetlin Machine with Integer Weighted Clauses for Compact
Pattern Representation
- Title(参考訳): コンパクトパターン表現のための整数重み付き節付き回帰tsetlinマシン
- Authors: K. Darshana Abeyrathna, Ole-Christoffer Granmo, Morten Goodwin
- Abstract要約: Regression Tsetlin Machine (RTM) は、最先端の非線形回帰モデルに干渉する解釈可能性の欠如に対処する。
整数重み付き節を導入し,計算コストをN倍に削減し,解釈可能性を高める。
6つの人工データセットを用いて整数重み付きRTMのポテンシャルを評価する。
- 参考スコア(独自算出の注目度): 9.432068833600884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Regression Tsetlin Machine (RTM) addresses the lack of interpretability
impeding state-of-the-art nonlinear regression models. It does this by using
conjunctive clauses in propositional logic to capture the underlying non-linear
frequent patterns in the data. These, in turn, are combined into a continuous
output through summation, akin to a linear regression function, however, with
non-linear components and unity weights. Although the RTM has solved non-linear
regression problems with competitive accuracy, the resolution of the output is
proportional to the number of clauses employed. This means that computation
cost increases with resolution. To reduce this problem, we here introduce
integer weighted RTM clauses. Our integer weighted clause is a compact
representation of multiple clauses that capture the same sub-pattern-N
repeating clauses are turned into one, with an integer weight N. This reduces
computation cost N times, and increases interpretability through a sparser
representation. We further introduce a novel learning scheme that allows us to
simultaneously learn both the clauses and their weights, taking advantage of
so-called stochastic searching on the line. We evaluate the potential of the
integer weighted RTM empirically using six artificial datasets. The results
show that the integer weighted RTM is able to acquire on par or better accuracy
using significantly less computational resources compared to regular RTMs. We
further show that integer weights yield improved accuracy over real-valued
ones.
- Abstract(参考訳): Regression Tsetlin Machine (RTM)は、最先端の非線形回帰モデルの解釈可能性の欠如に対処する。
これは命題論理の連結節を使用して、データ内の非線形頻繁なパターンをキャプチャすることで実現される。
しかし、これらは線型回帰関数と同様の和を通じて連続的な出力に結合され、非線型成分とユニタリ重みを持つ。
RTMは競合精度で非線形回帰問題を解くが、出力の解像度は使用される節数に比例する。
これは、計算コストが解像度によって増加することを意味する。
この問題を解決するため、整数重み付きRTM節を導入する。
我々の整数重み付き節(integer weighted clause)は、同一のサブパターン-nリピート節をキャプチャした複数の節のコンパクトな表現であり、整数重み n で 1 に変換される。
さらに,文節と重みの両方を同時に学習する,いわゆる確率探索を活かした新しい学習手法を提案する。
整数重み付きrtmのポテンシャルを6つの人工データセットを用いて実証的に評価する。
その結果、整数重み付きRTMは通常のRTMに比べて計算資源が大幅に少ないため、同等以上の精度で取得できることがわかった。
さらに,整数重み付けにより実数値よりも精度が向上することを示す。
関連論文リスト
- Unlocking State-Tracking in Linear RNNs Through Negative Eigenvalues [65.41946981594567]
リニアリカレントニューラルネットワーク(LRNN)は、大規模言語モデリングにおけるトランスフォーマーの効率的な代替手段として登場した。
LRNNは、コード評価やチェスゲーム追跡といったタスクのパフォーマンスを損なうような状態追跡を行うのに苦労している。
我々の研究は、現代のLRNNの表現性を高め、トレーニングや推論のコストを変えることなく適用性を高める。
論文 参考訳(メタデータ) (2024-11-19T14:35:38Z) - LFFR: Logistic Function For (single-output) Regression [0.0]
完全同型暗号方式で暗号化されたデータを用いたプライバシー保護型回帰トレーニングを実装した。
我々は,ロジスティック関数を用いたホモモルフィック回帰のための新しい,効率的なアルゴリズムLFFRを開発した。
論文 参考訳(メタデータ) (2024-07-13T17:33:49Z) - Hardness and Algorithms for Robust and Sparse Optimization [17.842787715567436]
スパース線形回帰やロバスト線形回帰といったスパース最適化問題に対するアルゴリズムと制限について検討する。
具体的には、スパース線型回帰問題は$k$-スパースベクトル$xinmathbbRd$を求め、$|Ax-b|$を最小化する。
頑健な線形回帰問題は、少なくとも$k$行を無視する集合$S$と、$|(Ax-b)_S|$を最小化するベクトル$x$を求める。
論文 参考訳(メタデータ) (2022-06-29T01:40:38Z) - ReLU Regression with Massart Noise [52.10842036932169]
本稿では、ReLU回帰の基本的問題として、Rectified Linear Units(ReLU)をデータに適合させることを目標としている。
我々は自然およびよく研究された半ランダムノイズモデルであるMassartノイズモデルにおけるReLU回帰に着目した。
このモデルにおいて,パラメータの正確な回復を実現する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-10T02:13:22Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - FORMS: Fine-grained Polarized ReRAM-based In-situ Computation for
Mixed-signal DNN Accelerator [33.19099033687952]
FORMSは、偏極重みを持つ微粒なReRAMベースのDNNアクセラレータである。
ISAACよりも1秒あたりのスループット向上とスピードアップを実現している。
論文 参考訳(メタデータ) (2021-06-16T21:42:08Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Model-based multi-parameter mapping [0.0]
定量的MRイメージングは、よりリッチな情報の内容と標準化された測定基準のためにますます好まれている。
推定はしばしば、異なる量のデータを分離して解くために、データのノイズサブセットを仮定する。
代わりに、生成モデルは定式化され、パラメータ推定を共同で回復するために反転することができる。
論文 参考訳(メタデータ) (2021-02-02T17:00:11Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - Extending the Tsetlin Machine With Integer-Weighted Clauses for
Increased Interpretability [9.432068833600884]
解釈可能かつ正確であるマシンモデルを構築することは、多くのパターン認識問題に対して未解決の課題である。
Tsetlin Machines (TM)は、命題論理における共役節の線形結合を用いて、様々なベンチマーク上での競合性能を示した。
本稿では,TM節に整数重みを持たせることで,精度・解釈可能性の問題に対処する。
論文 参考訳(メタデータ) (2020-05-11T14:18:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。