論文の概要: Minimizing Fuzzy Interpretations in Fuzzy Description Logics by Using
Crisp Bisimulations
- arxiv url: http://arxiv.org/abs/2303.11438v1
- Date: Mon, 13 Mar 2023 09:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 03:28:06.404577
- Title: Minimizing Fuzzy Interpretations in Fuzzy Description Logics by Using
Crisp Bisimulations
- Title(参考訳): Crisp Bisimulations を用いたファジィ記述論理におけるファジィ解釈の最小化
- Authors: Linh Anh Nguyen
- Abstract要約: ファジィ/重み付きソーシャルネットワークの構造を最小化すれば、よりコンパクトになる。
与えられた有限ファジィ解釈を最小化するために、$O((m logl + n) logn)$の複雑さを持つ効率的なアルゴリズムを提供する。
このアルゴリズムによって返されるファジィ解釈は,ファジィ TBoxes と ABoxes を保存しているものの中で最小限であることを示す。
- 参考スコア(独自算出の注目度): 5.863264019032882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of minimizing finite fuzzy interpretations in fuzzy description
logics (FDLs) is worth studying. For example, the structure of a fuzzy/weighted
social network can be treated as a fuzzy interpretation in FDLs, where actors
are individuals and actions are roles. Minimizing the structure of a
fuzzy/weighted social network makes it more compact, thus making network
analysis tasks more efficient. In this work, we study the problem of minimizing
a finite fuzzy interpretation in a FDL by using the largest crisp
auto-bisimulation. The considered FDLs use the Baaz projection operator and
their semantics is specified using an abstract algebra of fuzzy truth values,
which can be any linear and complete residuated lattice. We provide an
efficient algorithm with a complexity of $O((m \log{l} + n) \log{n})$ for
minimizing a given finite fuzzy interpretation $\mathcal{I}$, where $n$ is the
size of the domain of $\mathcal{I}$, $m$ is number of nonzero instances of
atomic roles of $\mathcal{I}$ and $l$ is the number of different fuzzy values
used for instances of atomic roles of $\mathcal{I}$. We prove that the fuzzy
interpretation returned by the algorithm is minimal among the ones that
preserve fuzzy TBoxes and ABoxes under certain conditions.
- Abstract(参考訳): ファジィ記述論理(FDL)における有限ファジィ解釈を最小化する問題は研究に値する。
例えば、ファジィ/重み付けされたソーシャルネットワークの構造は、アクターが個人であり、アクションが役割であるfdlのファジィ解釈として扱うことができる。
ファジィで重み付けされたソーシャルネットワークの構造を最小化することで、よりコンパクトになり、ネットワーク分析タスクをより効率的にする。
本研究では,FDLにおける有限ファジィ解釈を最大化する問題について,最大クリップオートビシミュレーションを用いて検討する。
検討されたFDLは、Baazプロジェクション演算子を使用し、それらの意味論は、任意の線形かつ完全再帰格子であるファジィ真理値の抽象代数を用いて特定される。
与えられた有限ファジィ解釈を最小化するために$O((m \log{l} + n) \log{n})$の複雑さを持つ効率的なアルゴリズムを提供する。$n$は$\mathcal{I}$のドメインのサイズであり、$m$は$\mathcal{I}$の原子ロールのゼロでないインスタンスの数であり、$l$は$\mathcal{I}$の原子ロールのインスタンスに使用される異なるファジィ値の数である。
このアルゴリズムによって返されるファジィ解釈は,一定の条件下でファジィTBoxやABoxを保存しているものの中で最小限であることを示す。
関連論文リスト
- A Doubly Robust Approach to Sparse Reinforcement Learning [19.68978899041642]
エピソードスパークリニアマルコフ決定過程(SMDP)に対する新しい後悔アルゴリズムを提案する。
提案アルゴリズムは$tildeO(sigma-1_min s_star H sqrtN)$である。
論文 参考訳(メタデータ) (2023-10-23T18:52:17Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Polynomial Width is Sufficient for Set Representation with
High-dimensional Features [69.65698500919869]
DeepSetsは集合表現のための最も広く使われているニューラルネットワークアーキテクチャである。
a) 線形 + パワーアクティベーション (LP) と (b) 線形 + 指数的アクティベーション (LE) の2つの集合要素埋め込み層を示す。
論文 参考訳(メタデータ) (2023-07-08T16:00:59Z) - Bottleneck Structure in Learned Features: Low-Dimension vs Regularity Tradeoff [12.351756386062291]
低次元表現の学習と特徴写像の複雑性/不規則性の最小化のバランスを定式化する。
大深度の場合、ほとんどすべての隠れ表現はおよそ$R(0)(f)$次元であり、ほとんど全ての重み行列は$W_ell$が$R(0)(f)$特異値である。
興味深いことに、大きな学習率の使用は、ほぼすべての層の表現の無限深度収束を保証する注文$O(L)$ NTKを保証するために要求される。
論文 参考訳(メタデータ) (2023-05-30T13:06:26Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - Minimax Optimization with Smooth Algorithmic Adversaries [59.47122537182611]
対戦相手が展開するスムーズなアルゴリズムに対して,Min-playerの新しいアルゴリズムを提案する。
本アルゴリズムは,制限周期のない単調進行を保証し,適切な勾配上昇数を求める。
論文 参考訳(メタデータ) (2021-06-02T22:03:36Z) - Efficient Explanations With Relevant Sets [30.296628060841645]
本稿では,$delta$-relevant 集合の実用的限界に対処するための解について検討する。
$delta$-relevant 集合の部分集合の計算は NP であり、NP のオラクルへの多くの呼び出しで解ける。
論文 参考訳(メタデータ) (2021-06-01T14:57:58Z) - Size and Depth Separation in Approximating Natural Functions with Neural
Networks [52.73592689730044]
本稿では,ReLUネットワークを用いた自然関数の近似におけるサイズと深さの利点を示す。
我々は、そのような結果が$O(d)$を超えることを証明するための複雑性理論上の障壁を示す。
また、サイズ$O(d)$のネットワークで近似できる明示的な自然関数も示している。
論文 参考訳(メタデータ) (2021-01-30T21:30:11Z) - Faster PAC Learning and Smaller Coresets via Smoothed Analysis [25.358415142404752]
PAC学習は通常、$n$アイテムから小さなサブセット(varepsilon$-sample/net)を計算することを目的としています。
スムーズな解析から着想を得て、クエリに対する強調誤差(最悪のケースではなく)を近似する自然な一般化を提案する。
論文 参考訳(メタデータ) (2020-06-09T18:25:34Z) - Attribute-Efficient Learning of Halfspaces with Malicious Noise:
Near-Optimal Label Complexity and Noise Tolerance [21.76197397540397]
本稿では,雑音下でのmathbbRd$における等質スパース半空間の計算的学習について述べる。
サンプルの複雑さは$tildeObig(frac 1 epsilon s2 log5 d big)$であり、属性効率も楽しめます。
論文 参考訳(メタデータ) (2020-06-06T04:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。