論文の概要: Kolmogorov Arnold Network Autoencoder in Medicine
- arxiv url: http://arxiv.org/abs/2507.19524v1
- Date: Sat, 19 Jul 2025 06:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:55.469545
- Title: Kolmogorov Arnold Network Autoencoder in Medicine
- Title(参考訳): Kolmogorov Arnold Network Autoencoder in Medicine
- Authors: Ugo Lomoio, Pierangelo Veltri, Pietro Hiram Guzzi,
- Abstract要約: 最近の研究はKAN(Kolmogorov Arnold Networks)と呼ばれる新しいアーキテクチャを導入し、ニューラルネットワークのエッジに学習可能なアクティベーション関数を配置することで、複数のシナリオのパフォーマンスが向上したことを報告している。
本研究の目的は,複数バージョンのバニラAE(線形・畳み込み・変分法など)を,同じあるいは少ないパラメータを持つコルモゴロフ・アルノルドの値と比較することである。
心電図をモデル入力として, 再建, 生成, 復調, 着色, 異常検出の5種類の古典的AEタスクについて検討した。
- 参考スコア(独自算出の注目度): 1.9662978733004604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning neural networks architectures such Multi Layer Perceptrons (MLP) and Convolutional blocks still play a crucial role in nowadays research advancements. From a topological point of view, these architecture may be represented as graphs in which we learn the functions related to the nodes while fixed edges convey the information from the input to the output. A recent work introduced a new architecture called Kolmogorov Arnold Networks (KAN) that reports how putting learnable activation functions on the edges of the neural network leads to better performances in multiple scenarios. Multiple studies are focusing on optimizing the KAN architecture by adding important features such as dropout regularization, Autoencoders (AE), model benchmarking and last, but not least, the KAN Convolutional Network (KCN) that introduced matrix convolution with KANs learning. This study aims to benchmark multiple versions of vanilla AEs (such as Linear, Convolutional and Variational) against their Kolmogorov-Arnold counterparts that have same or less number of parameters. Using cardiological signals as model input, a total of five different classic AE tasks were studied: reconstruction, generation, denoising, inpainting and anomaly detection. The proposed experiments uses a medical dataset \textit{AbnormalHeartbeat} that contains audio signals obtained from the stethoscope.
- Abstract(参考訳): マルチレイヤパーセプトロン(MLP)や畳み込みブロックといったディープラーニングニューラルネットワークアーキテクチャは、現在でも研究の進展において重要な役割を担っている。
トポロジカルな観点から、これらのアーキテクチャはノードに関連する関数を学習するグラフとして表現され、固定エッジは入力から出力へ情報を伝達する。
Kolmogorov Arnold Networks(KAN)と呼ばれる新しいアーキテクチャを導入し、ニューラルネットワークのエッジに学習可能なアクティベーション関数を配置することで、複数のシナリオのパフォーマンスが向上する、と報告している。
複数の研究は、ドロップアウト正規化、オートエンコーダ(AE)、モデルベンチマーク、そして最後に、カン学習と行列畳み込みを導入したカン畳み込みネットワーク(KCN)といった重要な機能を追加することによって、カンアーキテクチャの最適化に重点を置いている。
本研究の目的は,複数バージョンのバニラAE(線形・畳み込み・変分法など)を,同じあるいは少ないパラメータを持つコルモゴロフ・アルノルドの値と比較することである。
心電図をモデル入力として, 再建, 生成, 復調, 着色, 異常検出の5種類の古典的AEタスクについて検討した。
提案した実験では、聴診器から得られた音声信号を含む医療データセット \textit{AbnormalHeartbeat} を用いている。
関連論文リスト
- KAE: Kolmogorov-Arnold Auto-Encoder for Representation Learning [2.6713407440802253]
Kolmogorov-Arnold Network (KAN)は、最近、従来の多層パーセプトロン(MLP)の代替として注目されている。
本稿では,KAE(Kolmogorov-Arnold AutoEncoder)について紹介する。
ベンチマークデータセットの実験では、KAEは遅延表現の品質を改善し、再構成エラーを低減し、下流タスクで優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-31T12:49:03Z) - Kolmogorov-Arnold Network Autoencoders [0.0]
Kolmogorov-Arnold Networks (KAN)はMulti-Layer Perceptrons (MLP)に代わる有望な代替品である。
カンはコルモゴロフ・アルノルドの表現定理と密接に一致し、モデル精度と解釈可能性の両方を高める可能性がある。
この結果から,kanベースのオートエンコーダは復元精度の点で競争力を発揮することが示された。
論文 参考訳(メタデータ) (2024-10-02T22:56:00Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - ASU-CNN: An Efficient Deep Architecture for Image Classification and
Feature Visualizations [0.0]
活性化関数はディープニューラルネットワークの能力を決定する上で決定的な役割を果たす。
本稿では,ASU-CNNと呼ばれる畳み込みニューラルネットワークモデルを提案する。
ネットワークは、CIFAR-10の分類のためのトレーニングデータとテストデータの両方において有望な結果を得た。
論文 参考訳(メタデータ) (2023-05-28T16:52:25Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。