論文の概要: On the Robustness of Kolmogorov-Arnold Networks: An Adversarial Perspective
- arxiv url: http://arxiv.org/abs/2408.13809v1
- Date: Sun, 25 Aug 2024 11:10:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 17:49:53.835952
- Title: On the Robustness of Kolmogorov-Arnold Networks: An Adversarial Perspective
- Title(参考訳): Kolmogorov-Arnoldネットワークのロバスト性について:敵対的視点
- Authors: Tal Alter, Raz Lapid, Moshe Sipper,
- Abstract要約: Kolmogorov-Arnold Networks (KAN) は関数近似の新しいアプローチとして登場した。
理論的な約束にもかかわらず、敵対的な条件下でのカンの堅牢性はまだ十分に検討されていない。
この研究は、カンにおけるセキュリティの詳細な分析を初めて提供し、この新興分野における将来の研究の基盤となる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) have recently emerged as a novel approach to function approximation, demonstrating remarkable potential in various domains. Despite their theoretical promise, the robustness of KANs under adversarial conditions has yet to be thoroughly examined. In this paper, we explore the adversarial robustness of KANs, with a particular focus on image classification tasks. We assess the performance of KANs against standard white-box adversarial attacks, comparing their resilience to that of established neural network architectures. Further, we investigate the transferability of adversarial examples between KANs and Multilayer Perceptron (MLPs), deriving critical insights into the unique vulnerabilities of KANs. Our experiments use the MNIST, FashionMNIST, and KMNIST datasets, providing a comprehensive evaluation of KANs in adversarial scenarios. This work offers the first in-depth analysis of security in KANs, laying the groundwork for future research in this emerging field.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KANs) は関数近似の新しいアプローチとして最近登場し、様々な領域において顕著な可能性を示している。
理論的な約束にもかかわらず、敵対的な条件下でのカンの堅牢性はまだ十分に検討されていない。
本稿では,画像分類タスクに焦点をあてて,Kansの対角的ロバスト性について検討する。
我々は、標準のホワイトボックス攻撃に対してkanの性能を評価し、そのレジリエンスを確立されたニューラルネットワークアーキテクチャと比較する。
さらに,KansとMultilayer Perceptron (MLPs)の対立例の転送可能性について検討し,kansのユニークな脆弱性について重要な知見を得た。
実験では,MNIST,FashionMNIST,KMNISTのデータセットを用いて,敵シナリオにおけるkanの包括的評価を行った。
この研究は、カンにおけるセキュリティの詳細な分析を初めて提供し、この新興分野における将来の研究の基盤となる。
関連論文リスト
- Can KAN Work? Exploring the Potential of Kolmogorov-Arnold Networks in Computer Vision [6.554163686640315]
本研究ではまず,コンピュータビジョンタスクにおけるkanの可能性を分析し,画像分類とセマンティックセグメンテーションにおけるkanとその畳み込み特性を評価する。
以上の結果から,感性は強いが,ノイズに敏感であり,頑健さを抑えることが示唆された。
この課題に対処するため,正規化手法を提案し,セグメンション・デアクティベーション手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T05:44:48Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Bi-fidelity Evolutionary Multiobjective Search for Adversarially Robust
Deep Neural Architectures [19.173285459139592]
本稿では,双方向多目的ニューラルアーキテクチャ探索手法を提案する。
低忠実度性能予測器に加えて,高忠実度評価で訓練された代理モデルの出力を補助対象として活用する。
提案手法の有効性は, CIFAR-10, CIFAR-100, SVHNデータセットを用いた広範囲な実験により確認された。
論文 参考訳(メタデータ) (2022-07-12T05:26:09Z) - On the Minimal Adversarial Perturbation for Deep Neural Networks with
Provable Estimation Error [65.51757376525798]
敵の摂動の存在は、証明可能な堅牢性に関する興味深い研究ラインを開いた。
検証可能な結果は、コミットしたエラーを見積り、バウンドするものではない。
本稿では,最小対向摂動を求めるための2つの軽量戦略を提案する。
その結果, 提案手法は, 分類に近い試料の理論的距離とロバスト性を近似し, 敵攻撃に対する確実な保証が得られた。
論文 参考訳(メタデータ) (2022-01-04T16:40:03Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z) - Architectural Resilience to Foreground-and-Background Adversarial Noise [0.0]
正常な画像の知覚不能な摂動の形でのアドリサイドアタックが広く研究されている。
本稿では,異なるネットワークアーキテクチャのレジリエンスとロバスト性を検討するために,画像の異なるモデルに依存しないベンチマーク摂動を提案する。
論文 参考訳(メタデータ) (2020-03-23T01:38:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。