論文の概要: On Exact Learning of $d$-Monotone Functions
- arxiv url: http://arxiv.org/abs/2502.01265v1
- Date: Mon, 03 Feb 2025 11:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:30.375274
- Title: On Exact Learning of $d$-Monotone Functions
- Title(参考訳): $d$-Monotone関数の厳密な学習について
- Authors: Nader H. Bshouty,
- Abstract要約: 我々は、$d$-monotone 関数 $f:cal Xto0,1$ のブールクラスの学習可能性について、メンバシップと等価クエリから検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we study the learnability of the Boolean class of $d$-monotone functions $f:{\cal X}\to\{0,1\}$ from membership and equivalence queries, where $({\cal X},\le)$ is a finite lattice. We show that the class of $d$-monotone functions that are represented in the form $f=F(g_1,g_2,\ldots,g_d)$, where $F$ is any Boolean function $F:\{0,1\}^d\to\{0,1\}$ and $g_1,\ldots,g_d:{\cal X}\to \{0,1\}$ are any monotone functions, is learnable in time $\sigma({\cal X})\cdot (size(f)/d+1)^{d}$ where $\sigma({\cal X})$ is the maximum sum of the number of immediate predecessors in a chain from the largest element to the smallest element in the lattice ${\cal X}$ and $size(f)=size(g_1)+\cdots+size(g_d)$, where $size(g_i)$ is the number of minimal elements in $g_i^{-1}(1)$. For the Boolean function $f:\{0,1\}^n\to\{0,1\}$, the class of $d$-monotone functions that are represented in the form $f=F(g_1,g_2,\ldots,g_d)$, where $F$ is any Boolean function and $g_1,\ldots,g_d$ are any monotone DNF, is learnable in time $O(n^2)\cdot (size(f)/d+1)^{d}$ where $size(f)=size(g_1)+\cdots+size(g_d)$. In particular, this class is learnable in polynomial time when $d$ is constant. Additionally, this class is learnable in polynomial time when $size(g_i)$ is constant for all $i$ and $d=O(\log n)$.
- Abstract(参考訳): 本稿では,$d$-単調関数 $f:{\cal X}\to\{0,1\}$ のブール類を,メンバシップと等価クエリから学習し,$({\cal X},\le)$ を有限格子とする。
f=F(g_1,g_2,\ldots,g_d)$, where $F$ is any Boolean function $F:\{0,1\}^d\to\{0,1\}$ and $g_1,\ldots,g_d:{\cal X}\to \{0,1\}$ は任意の単調関数であり、時間で学習可能な $\sigma({\cal X})\cdot (size(f)/d+1)^{d}$ ここで $\sigma({\cal X})$ は、最大の要素から最小の要素への直列の最大値である。
ブール関数 $f:\{0,1\}^n\to\{0,1\}$ に対して、$d$-モノトン関数のクラスは $f=F(g_1,g_2,\ldots,g_d)$, where $F$ is any Boolean function and $g_1,\ldots,g_d$ is any monotone DNF, are are a time $O(n^2)\cdot (size(f)/d+1)^{d}$ where $size(f)=size(g_1)+\cdots+size(g_d)$で表される。
特に、$d$が定数であるとき、このクラスは多項式時間で学習可能である。
さらに、$size(g_i)$ がすべての $i$ と $d=O(\log n)$ に対して定数であるとき、このクラスは多項式時間で学習可能である。
関連論文リスト
- LevAttention: Time, Space, and Streaming Efficient Algorithm for Heavy Attentions [54.54897832889028]
任意の$K$に対して、$n$とは独立に「普遍集合」$Uサブセット[n]$が存在し、任意の$Q$と任意の行$i$に対して、大きな注目スコアが$A_i,j$ in row $i$ of $A$は全て$jin U$を持つことを示す。
我々は、視覚変換器のスキームの利点を実証的に示し、トレーニング中に我々の普遍的なセットを使用する新しいモデルのトレーニング方法を示した。
論文 参考訳(メタデータ) (2024-10-07T19:47:13Z) - Further Investigation on Differential Properties of the Generalized Ness-Helleseth Function [13.67029767623542]
f_u(x)=uxd_1+xd_2$ で定義される函数は、$mathbbF_pn$ 上の一般化ネッス=ヘレセス函数と呼ばれる。
for each $u$ satisfying $chi(u+1) = chi(u-1)$, the differential spectrum of $f_u(x)$。
論文 参考訳(メタデータ) (2024-08-30T13:18:23Z) - Dimension-free discretizations of the uniform norm by small product sets [45.85600902330814]
ベルンシュタインの古典的不等式は、単位円上の最高ノルムの$f$と、その最高ノルムの$K$-階根のサンプリング集合上の最高ノルムと比較する。
次元自由離散化は、濃度が$deg(f)$とは独立なサンプリング集合で可能であり、代わりに$f$の最大個人次数によって支配されることを示す。
論文 参考訳(メタデータ) (2023-10-11T22:46:09Z) - The Approximate Degree of DNF and CNF Formulas [95.94432031144716]
すべての$delta>0に対して、$はCNFと近似次数$Omega(n1-delta)の式を構築し、基本的には$nの自明な上限に一致する。
すべての$delta>0$に対して、これらのモデルは$Omega(n1-delta)$、$Omega(n/4kk2)1-delta$、$Omega(n/4kk2)1-delta$が必要です。
論文 参考訳(メタデータ) (2022-09-04T10:01:39Z) - Self-adjusting Population Sizes for the $(1, \lambda)$-EA on Monotone
Functions [7.111443975103329]
突然変異率$c/n$ for $cle 1$で、1:s+1)$-successルールで集団サイズを適応的に制御する。
この$c=1$のセットアップは1maxで$s1$で効率的であるが、$s ge 18$で非効率的であることを示す。
論文 参考訳(メタデータ) (2022-04-01T15:46:12Z) - Learning low-degree functions from a logarithmic number of random
queries [77.34726150561087]
任意の整数 $ninmathbbN$, $din1,ldots,n$ および任意の $varepsilon,deltain(0,1)$ に対して、有界関数 $f:-1,1nto[-1,1]$ に対して、少なくとも$d$ の次数を学ぶことができる。
論文 参考訳(メタデータ) (2021-09-21T13:19:04Z) - Inapproximability of Minimizing a Pair of DNFs or Binary Decision Trees
Defining a Partial Boolean Function [13.713089043895959]
一対のブール関数 $f, g colon 0,1J to 0,1$ で定義される部分ブール関数を考えると、$f cdot g = 0$ であり、$f$ と $g$ は可分正規形式または二分決定木で定義される。
論文 参考訳(メタデータ) (2021-02-09T08:46:50Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z) - A closer look at the approximation capabilities of neural networks [6.09170287691728]
1つの隠れた層を持つフィードフォワードニューラルネットワークは、任意の連続関数$f$を任意の近似しきい値$varepsilon$に近似することができる。
この均一な近似特性は、重量に強い条件が課せられているにもかかわらず、依然として維持されていることを示す。
論文 参考訳(メタデータ) (2020-02-16T04:58:43Z) - On the Complexity of Minimizing Convex Finite Sums Without Using the
Indices of the Individual Functions [62.01594253618911]
有限和の有限ノイズ構造を利用して、大域オラクルモデルの下での一致する$O(n2)$-upper境界を導出する。
同様のアプローチを踏襲したSVRGの新規な適応法を提案し、これはオラクルと互換性があり、$tildeO(n2+nsqrtL/mu)log (1/epsilon)$と$O(nsqrtL/epsilon)$, for $mu>0$と$mu=0$の複雑さ境界を実現する。
論文 参考訳(メタデータ) (2020-02-09T03:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。