論文の概要: Max-min Learning of Approximate Weight Matrices from Fuzzy Data
- arxiv url: http://arxiv.org/abs/2301.06141v1
- Date: Sun, 15 Jan 2023 16:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 17:14:07.931967
- Title: Max-min Learning of Approximate Weight Matrices from Fuzzy Data
- Title(参考訳): ファジィデータを用いた近似重量行列の最大値学習
- Authors: Isma\"il Baaj
- Abstract要約: ファジィ・リレーショナル方程式の不整合系の近似解集合 $Lambda_b$ について検討する。
トレーニングデータから入力データと出力データを関連付ける学習重量行列を最大$max-minのパラダイムとして導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we study the approximate solutions set $\Lambda_b$ of an
inconsistent system of $\max-\min$ fuzzy relational equations $(S): A
\Box_{\min}^{\max}x =b$. Using the $L_\infty$ norm, we compute by an explicit
analytical formula the Chebyshev distance $\Delta~=~\inf_{c \in \mathcal{C}}
\Vert b -c \Vert$, where $\mathcal{C}$ is the set of second members of the
consistent systems defined with the same matrix $A$. We study the set
$\mathcal{C}_b$ of Chebyshev approximations of the second member $b$ i.e.,
vectors $c \in \mathcal{C}$ such that $\Vert b -c \Vert = \Delta$, which is
associated to the approximate solutions set $\Lambda_b$ in the following sense:
an element of the set $\Lambda_b$ is a solution vector $x^\ast$ of a system $A
\Box_{\min}^{\max}x =c$ where $c \in \mathcal{C}_b$. As main results, we
describe both the structure of the set $\Lambda_b$ and that of the set
$\mathcal{C}_b$. We then introduce a paradigm for $\max-\min$ learning weight
matrices that relates input and output data from training data. The learning
error is expressed in terms of the $L_\infty$ norm. We compute by an explicit
formula the minimal value of the learning error according to the training data.
We give a method to construct weight matrices whose learning error is minimal,
that we call approximate weight matrices.
Finally, as an application of our results, we show how to learn approximately
the rule parameters of a possibilistic rule-based system according to multiple
training data.
- Abstract(参考訳): 本稿では,$\max-\min$ ファジィ関係方程式 $(s): a \box_{\min}^{\max}x = b$ の不整合系の近似解である $\lambda_b$ について検討する。
l_\infty$ のノルムを用いて、明示的な解析式であるチェビシェフ距離 $\delta~=~\inf_{c \in \mathcal{c}} \vert b -c \vert$ で計算する。
第二元 $b$ のチェビシェフ近似のセット $\mathcal{c}_b$ 、すなわち、$\vert b -c \vert = \delta$ となるベクトル $c \in \mathcal{c}$ について、次の意味での近似解セット $\lambda_b$ に関連付けられている: 集合 $\lambda_b$ の要素は、系 $a \box_{\min}^{\max}x =c$ の解ベクトル $x^\ast$ である。
主な結果として、集合 $\lambda_b$ の構造と集合 $\mathcal{c}_b$ の構造の両方を記述する。
次に、トレーニングデータから入力および出力データを関連付ける学習重量行列を$\max-\min$で導入する。
学習誤差は$L_\infty$ノルムで表される。
トレーニングデータに従って学習誤差の最小値を明示的な式で計算する。
学習誤差が最小限である重み行列を構成する手法を提案し,これを近似重み行列と呼ぶ。
最後に,本研究の応用として,多元的ルールベースシステムのルールパラメータを,複数のトレーニングデータに基づいて学習する方法を示す。
関連論文リスト
- Model-agnostic basis functions for the 2-point correlation function of dark matter in linear theory [0.0]
幅広い種類の宇宙モデルにおいて、バリオン音響振動特性の近傍に$xi_rm lin(r)$を記述する基底 $mathcalB$ を求める。
モデルに依存しないBAO解析における基礎関数の使用は、統計的に有意な利益をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-10-28T18:00:01Z) - The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - Optimal Sketching for Residual Error Estimation for Matrix and Vector Norms [50.15964512954274]
線形スケッチを用いた行列とベクトルノルムの残差誤差推定問題について検討する。
これは、前作とほぼ同じスケッチサイズと精度で、経験的にかなり有利であることを示す。
また、スパースリカバリ問題に対して$Omega(k2/pn1-2/p)$低いバウンダリを示し、これは$mathrmpoly(log n)$ factorまで厳密である。
論文 参考訳(メタデータ) (2024-08-16T02:33:07Z) - Maximal Consistent Subsystems of Max-T Fuzzy Relational Equations [0.0]
A Box_Tmax x = b$, ここで$T$は$min$、積またはLukasiewiczのt-ノルムの間のt-ノルムである。
矛盾しない$max-T$システムに対して、正準極大一貫したサブシステムを構築する。
我々は、その最大一貫したサブシステムをすべて反復的に取得する方法を示す。
論文 参考訳(メタデータ) (2023-11-06T12:41:21Z) - Handling the inconsistency of systems of $\min\rightarrow$ fuzzy
relational equations [0.0]
ケビシェフ距離を計算するための解析式を、数学D Vertベータで$nabla = inf_dとする。
我々は、$min-rightarrow_G$システムの場合、チェビシェフ距離$nabla$は無限であるかもしれないことを示す。
論文 参考訳(メタデータ) (2023-08-22T16:12:26Z) - Fast $(1+\varepsilon)$-Approximation Algorithms for Binary Matrix
Factorization [54.29685789885059]
本稿では, 2次行列分解(BMF)問題に対する効率的な$(1+varepsilon)$-approximationアルゴリズムを提案する。
目標は、低ランク因子の積として$mathbfA$を近似することである。
我々の手法はBMF問題の他の一般的な変種に一般化する。
論文 参考訳(メタデータ) (2023-06-02T18:55:27Z) - Learning linear dynamical systems under convex constraints [4.4351901934764975]
線形力学系を単一軌道の$T$サンプルから同定する問題を考察する。
A*$は、制約のない設定に必要な値よりも$T$小さい値を確実に見積もることができる。
論文 参考訳(メタデータ) (2023-03-27T11:49:40Z) - Self-training Converts Weak Learners to Strong Learners in Mixture
Models [86.7137362125503]
擬似ラベルの $boldsymbolbeta_mathrmpl$ が,最大$C_mathrmerr$ の分類誤差を達成可能であることを示す。
さらに、ロジスティックな損失に対して勾配降下を実行することで、ラベル付き例のみを使用して、分類誤差が$C_mathrmerr$で擬ラベルの $boldsymbolbeta_mathrmpl$ が得られることを示す。
論文 参考訳(メタデータ) (2021-06-25T17:59:16Z) - Learning a Latent Simplex in Input-Sparsity Time [58.30321592603066]
我々は、$AinmathbbRdtimes n$へのアクセスを考えると、潜入$k$-vertex simplex $KsubsetmathbbRdtimes n$を学習する問題を考える。
実行時間における$k$への依存は、トップ$k$特異値の質量が$a$であるという自然な仮定から不要であることを示す。
論文 参考訳(メタデータ) (2021-05-17T16:40:48Z) - An Algorithm for Learning Smaller Representations of Models With Scarce
Data [0.0]
データセットが小さすぎるか、完全に代表的でない状況下で、二項分類問題を解くための欲求的アルゴリズムを提案する。
それは、ゆるやかな精度の制約、反復的なハイパーパラメータプルーニング手順、新しいデータを生成するために使われる関数といった訓練されたモデルに依存している。
論文 参考訳(メタデータ) (2020-10-15T19:17:51Z) - Agnostic Q-learning with Function Approximation in Deterministic
Systems: Tight Bounds on Approximation Error and Sample Complexity [94.37110094442136]
本稿では,決定論的システムにおける関数近似を用いたQ$学習の問題について検討する。
もし$delta = Oleft(rho/sqrtdim_Eright)$なら、$Oleft(dim_Eright)$を使って最適なポリシーを見つけることができる。
論文 参考訳(メタデータ) (2020-02-17T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。