論文の概要: KAE: Kolmogorov-Arnold Auto-Encoder for Representation Learning
- arxiv url: http://arxiv.org/abs/2501.00420v1
- Date: Tue, 31 Dec 2024 12:49:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:13:10.804404
- Title: KAE: Kolmogorov-Arnold Auto-Encoder for Representation Learning
- Title(参考訳): KAE:Kolmogorov-Arnoldによる表現学習用オートエンコーダ
- Authors: Fangchen Yu, Ruilizhen Hu, Yidong Lin, Yuqi Ma, Zhenghao Huang, Wenye Li,
- Abstract要約: Kolmogorov-Arnold Network (KAN)は、最近、従来の多層パーセプトロン(MLP)の代替として注目されている。
本稿では,KAE(Kolmogorov-Arnold AutoEncoder)について紹介する。
ベンチマークデータセットの実験では、KAEは遅延表現の品質を改善し、再構成エラーを低減し、下流タスクで優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 2.6713407440802253
- License:
- Abstract: The Kolmogorov-Arnold Network (KAN) has recently gained attention as an alternative to traditional multi-layer perceptrons (MLPs), offering improved accuracy and interpretability by employing learnable activation functions on edges. In this paper, we introduce the Kolmogorov-Arnold Auto-Encoder (KAE), which integrates KAN with autoencoders (AEs) to enhance representation learning for retrieval, classification, and denoising tasks. Leveraging the flexible polynomial functions in KAN layers, KAE captures complex data patterns and non-linear relationships. Experiments on benchmark datasets demonstrate that KAE improves latent representation quality, reduces reconstruction errors, and achieves superior performance in downstream tasks such as retrieval, classification, and denoising, compared to standard autoencoders and other KAN variants. These results suggest KAE's potential as a useful tool for representation learning. Our code is available at \url{https://github.com/SciYu/KAE/}.
- Abstract(参考訳): Kolmogorov-Arnold Network (KAN)は、最近、従来の多層パーセプトロン(MLP)の代替として注目され、エッジ上で学習可能なアクティベーション関数を利用することで、精度と解釈性が向上した。
本稿では,KAE(Kolmogorov-Arnold Auto-Encoder)を導入し,自動エンコーダ(AE)とKAEを統合し,検索・分類・認知タスクの表現学習を強化する。
Kan層における柔軟な多項式関数を活用することで、KAEは複雑なデータパターンと非線形関係をキャプチャする。
ベンチマークデータセットの実験では、KAEは遅延表現の品質を改善し、再構成エラーを低減し、通常のオートエンコーダや他の Kan 変種と比較して、検索、分類、復号化といった下流タスクにおいて優れた性能を発揮することが示された。
これらの結果から,KAEが表現学習に有用である可能性が示唆された。
私たちのコードは \url{https://github.com/SciYu/KAE/} で利用可能です。
関連論文リスト
- KANICE: Kolmogorov-Arnold Networks with Interactive Convolutional Elements [1.663204995903499]
コンボリューショナルニューラルネットワーク(CNN)とコルモゴロフ・アルノルドネットワーク(KAN)の原理を組み合わせた,新しいニューラルネットワークアーキテクチャであるKanICEを紹介する。
KanICEはInteractive Convolutional Blocks (ICB) と Kan の線形層を CNN フレームワークに統合する。
MNIST, Fashion-MNIST, EMNIST, SVHNの4つのデータセットを用いて,KanICEの評価を行った。
論文 参考訳(メタデータ) (2024-10-22T16:50:34Z) - Kolmogorov-Arnold Network Autoencoders [0.0]
Kolmogorov-Arnold Networks (KAN)はMulti-Layer Perceptrons (MLP)に代わる有望な代替品である。
カンはコルモゴロフ・アルノルドの表現定理と密接に一致し、モデル精度と解釈可能性の両方を高める可能性がある。
この結果から,kanベースのオートエンコーダは復元精度の点で競争力を発揮することが示された。
論文 参考訳(メタデータ) (2024-10-02T22:56:00Z) - fKAN: Fractional Kolmogorov-Arnold Networks with trainable Jacobi basis functions [0.0]
ニューラルネットワーク設計の最近の進歩は、KAN(Kolmogorov-Arnold Networks)の発展をもたらした。
本稿では,学習可能な適応型分数-直交ジャコビ関数を基本関数として組み込んだニューラルネットワークアーキテクチャを提案する。
その結果, 分数的ヤコビ関数をkansに組み込むことで, 様々な分野やアプリケーションにおけるトレーニング速度と性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-06-11T17:01:45Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Using DUCK-Net for Polyp Image Segmentation [0.0]
DUCK-Netは、少量の医療画像から効果的に学習し、一般化し、正確なセグメンテーションタスクを実行することができる。
大腸内視鏡画像におけるポリープセグメンテーションに特有な機能を示す。
論文 参考訳(メタデータ) (2023-11-03T20:58:44Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Leveraging Angular Information Between Feature and Classifier for
Long-tailed Learning: A Prediction Reformulation Approach [90.77858044524544]
分類器の重みを再バランスすることなく、包含角度で認識確率を再構成する。
予測形式再構成の性能向上に着想を得て, この角度予測の異なる特性について検討する。
CIFAR10/100-LT と ImageNet-LT を事前学習することなく、ピアメソッド間で最高の性能を得ることができる。
論文 参考訳(メタデータ) (2022-12-03T07:52:48Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。