論文の概要: A Power Transform
- arxiv url: http://arxiv.org/abs/2502.10647v1
- Date: Sat, 15 Feb 2025 02:47:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:14:14.875007
- Title: A Power Transform
- Title(参考訳): 電力変換
- Authors: Jonathan T. Barron,
- Abstract要約: そこで本研究では,損失関数群,カーネル関数群,確率分布,バンプ関数群,ニューラルネットワーク活性化関数群を統一したフレームワークとして機能することを示す。
- 参考スコア(独自算出の注目度): 42.58448833299669
- License:
- Abstract: Power transforms, such as the Box-Cox transform and Tukey's ladder of powers, are a fundamental tool in mathematics and statistics. These transforms are primarily used for normalizing and standardizing datasets, effectively by raising values to a power. In this work I present a novel power transform, and I show that it serves as a unifying framework for wide family of loss functions, kernel functions, probability distributions, bump functions, and neural network activation functions.
- Abstract(参考訳): Box-Cox変換やTukey's ladder of powerのようなパワー変換は、数学と統計学の基本的なツールである。
これらの変換は、主にデータセットの正規化と標準化に使われ、効果的にパワーに値を上げることで使用される。
本研究は,新しいパワー・トランスフォーメーションであり,幅広い損失関数,カーネル関数,確率分布,バンプ関数,ニューラルネットワークアクティベーション関数の統一フレームワークとして機能することを示す。
関連論文リスト
- Kolmogorov-Arnold Transformer [72.88137795439407]
Kolmogorov-Arnold Transformer(KAT)は,階層をKAN(Kolmogorov-Arnold Network)層に置き換える新しいアーキテクチャである。
C1)基本関数,(C2)非効率,(C3)重みの3つの主要な課題を特定する。
これらの設計により、KATは従来のトランスフォーマーよりも優れている。
論文 参考訳(メタデータ) (2024-09-16T17:54:51Z) - The Hyperdimensional Transform: a Holographic Representation of
Functions [12.693238093510072]
我々は超次元変換を新しい種類の積分変換として導入する。
これは二乗可積分関数を超次元ベクトルと呼ばれるノイズローバスト、ホログラフィック、高次元表現に変換する。
これは超次元コンピューティングの分野における理論的基礎と新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-10-24T11:33:39Z) - Approximation and Estimation Ability of Transformers for
Sequence-to-Sequence Functions with Infinite Dimensional Input [50.83356836818667]
無限次元入力を持つシーケンス・ツー・シーケンス関数として変換器の近似と推定能力について検討する。
我々の理論的結果は、高次元データに対する変換器の実用的成功を支持する。
論文 参考訳(メタデータ) (2023-05-30T02:44:49Z) - Empowering Networks With Scale and Rotation Equivariance Using A
Similarity Convolution [16.853711292804476]
翻訳, 回転, スケーリングに関して, 同時同値のCNNを実現する手法を考案する。
提案手法は畳み込みのような動作を定義し,提案したスケーラブルなフーリエ・アーガン表現に基づいて等価性を保証する。
画像分類作業におけるアプローチの有効性を検証し、その頑健さと、スケールされた入力と回転した入力の両方に対する一般化能力を示す。
論文 参考訳(メタデータ) (2023-03-01T08:43:05Z) - A Multi-Layer Regression based Predicable Function Fitting Network [3.167685495996986]
この2つの主要な問題を解決する多重回帰関数適合ネットワークを導入する。
数理関数例と実語関数例の両方の実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-09-19T08:11:03Z) - Your Transformer May Not be as Powerful as You Expect [88.11364619182773]
連続列列列関数を近似できるかどうかに関して, RPE ベースの変換器のパワーを数学的に解析する。
RPEをベースとしたトランスフォーマーでは,ニューラルネットワークの深さや幅がどんなに深くても近似できない連続列列列列関数が存在することを示す。
我々は,その条件を満たす,Universal RPE-based (URPE) Attentionと呼ばれる新しいアテンションモジュールを開発する。
論文 参考訳(メタデータ) (2022-05-26T14:51:30Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - PowerLinear Activation Functions with application to the first layer of
CNNs [0.609170287691728]
EvenPowLinアクティベーション関数は、CNNモデルでグレースケール画像の逆転を分類するために使用される。
EvenPowLinアクティベーション関数は、CNNモデルで、グレースケール画像の逆転を元のグレースケール画像と同じくらい正確に分類するために使用される。
論文 参考訳(メタデータ) (2021-08-20T16:43:01Z) - Learning Set Functions that are Sparse in Non-Orthogonal Fourier Bases [73.53227696624306]
フーリエスパース集合関数を学習するための新しいアルゴリズム群を提案する。
Walsh-Hadamard変換に焦点をあてた他の研究とは対照的に、我々の新しいアルゴリズムは最近導入された非直交フーリエ変換で機能する。
いくつかの実世界のアプリケーションで有効性を示す。
論文 参考訳(メタデータ) (2020-10-01T14:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。