論文の概要: DropKAN: Regularizing KANs by masking post-activations
- arxiv url: http://arxiv.org/abs/2407.13044v1
- Date: Wed, 17 Jul 2024 22:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 19:13:43.390729
- Title: DropKAN: Regularizing KANs by masking post-activations
- Title(参考訳): DropKan: ポストアクティベーションのマスキングによるカンの正規化
- Authors: Mohammed Ghaith Altarabichi,
- Abstract要約: コルモゴロフ・アルノルドネットワーク(KAN)における活性化関数重みの共適応を防止する正規化手法を提案する。
DropKanは、Kans計算グラフ内のポストアクティベーションの一部をランダムにマスキングし、保持されたポストアクティベーションをスケールアップする。
最小限のコーディング作業を必要とするこの単純な手順は、正規化効果を持ち、一貫してkansのより優れた一般化につながることを示す。
- 参考スコア(独自算出の注目度): 1.223779595809275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose DropKAN (Drop Kolmogorov-Arnold Networks) a regularization method that prevents co-adaptation of activation function weights in Kolmogorov-Arnold Networks (KANs). DropKAN operates by randomly masking some of the post-activations within the KANs computation graph, while scaling-up the retained post-activations. We show that this simple procedure that require minimal coding effort has a regularizing effect and consistently lead to better generalization of KANs. We analyze the adaptation of the standard Dropout with KANs and demonstrate that Dropout applied to KANs' neurons can lead to unpredictable performance in the feedforward pass. We carry an empirical study with real world Machine Learning datasets to validate our findings. Our results suggest that DropKAN is consistently a better alternative to Dropout, and improves the generalization performance of KANs.
- Abstract(参考訳): そこで我々はDropKAN(Drop Kolmogorov-Arnold Networks)を提案する。
DropKanは、Kans計算グラフ内のポストアクティベーションの一部をランダムにマスキングし、保持されたポストアクティベーションをスケールアップする。
最小限のコーディング作業を必要とするこの単純な手順は、正規化効果を持ち、一貫してkansのより優れた一般化につながることを示す。
我々は、標準Dropout with Kansの適応を分析し、Kansのニューロンに適用されたDropoutがフィードフォワードパスにおいて予測不可能な性能をもたらすことを示した。
実世界の機械学習データセットを用いて実証的研究を行い、その結果を検証する。
その結果,DropKANは一貫してDropoutの代替品であり,Kansの一般化性能を向上させることが示唆された。
関連論文リスト
- Kolmogorov-Smirnov GAN [52.36633001046723]
我々は、KSGAN(Kolmogorov-Smirnov Generative Adversarial Network)という新しい深層生成モデルを提案する。
既存のアプローチとは異なり、KSGANはKS距離の最小化として学習プロセスを定式化している。
論文 参考訳(メタデータ) (2024-06-28T14:30:14Z) - FlexiDrop: Theoretical Insights and Practical Advances in Random Dropout Method on GNNs [4.52430575477004]
本稿ではFlexiDropと呼ばれるグラフニューラルネットワーク(GNN)のための新しいランダムドロップアウト手法を提案する。
本研究では, モデル複雑性と一般化能力のトレードオフを理論的にバランスさせることにより, ドロップアウト率を適応的に調整できることを示す。
論文 参考訳(メタデータ) (2024-05-30T12:48:44Z) - Pre-Training and Fine-Tuning Generative Flow Networks [61.90529626590415]
本稿では,GFlowNetの報酬なし事前学習のための新しいアプローチを提案する。
自己指導型問題としてトレーニングをフレーミングすることで,候補空間の探索を学習する結果条件付きGFlowNetを提案する。
事前学習したOC-GFNモデルにより、下流タスクにおける新しい報酬関数をサンプリングできるポリシーを直接抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-05T09:53:22Z) - Dropout Injection at Test Time for Post Hoc Uncertainty Quantification
in Neural Networks [5.487511963603429]
本研究では, ドロップアウト注入が, 競合するポストホック不確実性定量化技術として効果的に動作することを示す。
本研究の主な貢献は、注入液滴の有効利用に関するガイドラインを提供することで、現在の組込み液滴の実用的代替となるようにすることである。
論文 参考訳(メタデータ) (2023-02-06T16:56:53Z) - Orthogonal SVD Covariance Conditioning and Latent Disentanglement [65.67315418971688]
SVDメタ層をニューラルネットワークに挿入すると、共分散が不調和になる。
我々は最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-12-11T20:31:31Z) - DigGAN: Discriminator gradIent Gap Regularization for GAN Training with
Limited Data [13.50061291734299]
本稿では,既存のGANに付加可能なDigGAN(DigGAN)の定式化を提案する。
DigGANは既存のGANを強化し、判別器の予測 w.r.t. 実画像と生成されたサンプル w.r.t. の勾配のノルムのギャップを狭める。
この定式化は,GANロスランドスケープ内の悪い引き込みを回避し,限られたデータが得られる場合に,GANトレーニングの結果を大幅に改善するDigGANを見出した。
論文 参考訳(メタデータ) (2022-11-27T01:03:58Z) - Collapse by Conditioning: Training Class-conditional GANs with Limited
Data [109.30895503994687]
非条件学習を活用することにより、観測モード崩壊を効果的に防止する条件付きGAN(cGAN)のトレーニング戦略を提案する。
我々のトレーニング戦略は、無条件のGANから始まり、徐々に条件情報をジェネレータと目的関数に注入する。
安定したトレーニングだけでなく,高品質な画像を生成するために,限られたデータでcGANを訓練する手法を提案する。
論文 参考訳(メタデータ) (2022-01-17T18:59:23Z) - Prb-GAN: A Probabilistic Framework for GAN Modelling [20.181803514993778]
本稿では,ネットワークパラメータ上の分布を生成するためにドロップアウトを用いた新しいバリエーションを提案する。
我々の手法は非常にシンプルで、既存のGANアーキテクチャの変更はほとんど必要ありません。
論文 参考訳(メタデータ) (2021-07-12T08:04:13Z) - Advanced Dropout: A Model-free Methodology for Bayesian Dropout
Optimization [62.8384110757689]
ディープニューラルネットワーク(DNN)の現実的応用において、ユビキタスなオーバーフィッティングが存在する
先進的なドロップアウト手法は、パラメトリック先行でモデルフリーで容易に実装された分布を適用し、ドロップアウト率を適応的に調整する。
7つのコンピュータビジョンデータセットにおける9つのドロップアウト手法に対する高度なドロップアウトの有効性を評価する。
論文 参考訳(メタデータ) (2020-10-11T13:19:58Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。