論文の概要: New estimates for character sums over sparse elements of finite fields
- arxiv url: http://arxiv.org/abs/2502.14436v1
- Date: Thu, 20 Feb 2025 10:40:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:26:23.207296
- Title: New estimates for character sums over sparse elements of finite fields
- Title(参考訳): 有限場のスパース要素上の文字和の新しい推定法
- Authors: Kaimin Cheng, Arne Winterhof,
- Abstract要約: 例えば$sum_ginmathcalGchi(f(g))$, $mathcalG$ は $mathbbF_qr$ と $f(X)$ のスパース部分集合であり、$mathbbF_qr$ は $mathbbF_qr$ の和である。
- 参考スコア(独自算出の注目度): 6.5990719141691825
- License:
- Abstract: Let $q$ be a prime power and $r$ a positive integer. Let $\mathbb{F}_q$ be the finite field with $q$ elements, and let $\mathbb{F}_{q^r}$ be its extension field of degree $r$. Let $\chi$ be a nontrivial multiplicative character of $\mathbb{F}_{q^r}$. In this paper, we provide new estimates for the character sums $\sum_{g\in\mathcal{G}}\chi(f(g))$, where $\mathcal{G}$ is a given sparse subsets of $\mathbb{F}_{q^r}$ and $f(X)$ is a polynomial over $\mathbb{F}_{q^r}$ of certain type. Specifically, by extending a sum over sparse subsets to subfields, rather than to general linear spaces, we obtain significant improvements of previous estimates.
- Abstract(参考訳): q$ を素数とし、r$ を正の整数とする。
$\mathbb{F}_q$ を$q$元を持つ有限体とし、$\mathbb{F}_{q^r}$ を次数 $r$ の拡張体とする。
$\chi$ を $\mathbb{F}_{q^r}$ の非自明な乗法文字とする。
そこで、$\mathcal{G}$ は $\mathbb{F}_{q^r}$ のスパース部分集合であり、$f(X)$ は $\mathbb{F}_{q^r}$ の多項式である。
具体的には、スパース部分集合上の和を一般線型空間ではなく部分体に拡張することにより、以前の推定値を大幅に改善する。
関連論文リスト
- The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - A class of ternary codes with few weights [0.0]
本稿では,$mathcalC$ := (textTr) := (textTr(dx), dots, dots, d_n$で定義される3次コード$mathcalC$ of length $n$について検討する。
指数和の明示的な評価に関する最近の結果を用いて、Weil境界とテクニックを判定し、$mathcalC$の双対符号がハミング境界に対して最適であることを示す。
論文 参考訳(メタデータ) (2024-10-05T16:15:50Z) - Efficient Continual Finite-Sum Minimization [52.5238287567572]
連続有限サム最小化(continuous finite-sum minimization)と呼ばれる有限サム最小化の鍵となるツイストを提案する。
我々のアプローチは$mathcalO(n/epsilon)$ FOs that $mathrmStochasticGradientDescent$で大幅に改善されます。
また、$mathcalOleft(n/epsilonalpharight)$ complexity gradient for $alpha 1/4$という自然な一階法は存在しないことを証明し、この方法の第一階法がほぼ密であることを示す。
論文 参考訳(メタデータ) (2024-06-07T08:26:31Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Noncompact uniform universal approximation [0.0]
普遍近似定理は、(コンパクトでない)入力空間 $mathbbRn$ 上の一様収束に一般化される。
無限大で消えるすべての連続関数は、ニューラルネットワークによって一様に近似することができる。
論文 参考訳(メタデータ) (2023-08-07T08:54:21Z) - Increasing subsequences, matrix loci, and Viennot shadows [0.0]
商 $mathbbF[mathbfx_n times n]/I_n$ が標準単項基底を持つことを示す。
また、 $mathbbF[mathbfx_n times n]/I_n$ を次数 $mathfrakS_n times MathfrakS_n$-module として計算する。
論文 参考訳(メタデータ) (2023-06-14T19:48:01Z) - Fast $(1+\varepsilon)$-Approximation Algorithms for Binary Matrix
Factorization [54.29685789885059]
本稿では, 2次行列分解(BMF)問題に対する効率的な$(1+varepsilon)$-approximationアルゴリズムを提案する。
目標は、低ランク因子の積として$mathbfA$を近似することである。
我々の手法はBMF問題の他の一般的な変種に一般化する。
論文 参考訳(メタデータ) (2023-06-02T18:55:27Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Spectral properties of sample covariance matrices arising from random
matrices with independent non identically distributed columns [50.053491972003656]
関数 $texttr(AR(z))$, for $R(z) = (frac1nXXT- zI_p)-1$ and $Ain mathcal M_p$ deterministic, have a standard deviation of order $O(|A|_* / sqrt n)$.
ここでは、$|mathbb E[R(z)] - tilde R(z)|_F を示す。
論文 参考訳(メタデータ) (2021-09-06T14:21:43Z) - A Canonical Transform for Strengthening the Local $L^p$-Type Universal
Approximation Property [4.18804572788063]
任意の機械学習モデルクラス $mathscrFsubseteq C(mathbbRd,mathbbRD)$ が $Lp_mu(mathbbRd,mathbbRD)$ で密であることを保証する。
本稿では、「$mathscrF$'s approximation property」という正準変換を導入することにより、この近似理論問題に対する一般的な解を提案する。
論文 参考訳(メタデータ) (2020-06-24T17:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。