論文の概要: LAKAN: Landmark-assisted Adaptive Kolmogorov-Arnold Network for Face Forgery Detection
- arxiv url: http://arxiv.org/abs/2510.00634v1
- Date: Wed, 01 Oct 2025 08:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.459158
- Title: LAKAN: Landmark-assisted Adaptive Kolmogorov-Arnold Network for Face Forgery Detection
- Title(参考訳): Lakan: 顔認識のためのランドマーク支援型適応型コルモゴロフ・アルノルドネットワーク
- Authors: Jiayao Jiang, Siran Peng, Bin Liu, Qi Chu, Nenghai Yu,
- Abstract要約: ディープフェイク生成技術は 堅牢な顔偽造検出アルゴリズムを必要とする
コルモゴロフ・アルノルドネットワーク(KAN)に基づく新しい検出手法を提案する。
本稿では,ランドマーク支援型適応コルモゴロフ・アルノルドネットワーク(LakaN)モジュールを提案する。
- 参考スコア(独自算出の注目度): 48.562984002121276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of deepfake generation techniques necessitates robust face forgery detection algorithms. While methods based on Convolutional Neural Networks (CNNs) and Transformers are effective, there is still room for improvement in modeling the highly complex and non-linear nature of forgery artifacts. To address this issue, we propose a novel detection method based on the Kolmogorov-Arnold Network (KAN). By replacing fixed activation functions with learnable splines, our KAN-based approach is better suited to this challenge. Furthermore, to guide the network's focus towards critical facial areas, we introduce a Landmark-assisted Adaptive Kolmogorov-Arnold Network (LAKAN) module. This module uses facial landmarks as a structural prior to dynamically generate the internal parameters of the KAN, creating an instance-specific signal that steers a general-purpose image encoder towards the most informative facial regions with artifacts. This core innovation creates a powerful combination between geometric priors and the network's learning process. Extensive experiments on multiple public datasets show that our proposed method achieves superior performance.
- Abstract(参考訳): ディープフェイク生成技術の急速な発展は、堅牢な顔偽造検出アルゴリズムを必要とする。
畳み込みニューラルネットワーク(CNN)とトランスフォーマーに基づく手法は有効であるが、偽造品の高度に複雑で非線形的な性質をモデル化する余地は依然として残っている。
そこで本研究では,KAN(Kolmogorov-Arnold Network)に基づく新しい検出手法を提案する。
固定アクティベーション関数を学習可能なスプラインに置き換えることにより,kanベースのアプローチはこの課題に適している。
さらに,ランドマーク支援型適応コルモゴロフ・アルノルドネットワーク(LakaN)モジュールを導入する。
このモジュールは、顔のランドマークを構造として使用して、kanの内部パラメータを動的に生成し、汎用イメージエンコーダをアーティファクトを持つ最も情報性の高い顔領域に向けて制御するインスタンス固有の信号を生成する。
この中心となるイノベーションは、幾何学的先行とネットワークの学習プロセスの強力な組み合わせを生み出します。
複数の公開データセットに対する大規模な実験により,提案手法が優れた性能を実現することを示す。
関連論文リスト
- GCRPNet: Graph-Enhanced Contextual and Regional Perception Network for Salient Object Detection in Optical Remote Sensing Images [68.33481681452675]
本稿では,GCRPNet(Graph-enhanced contextual and Regional Recognition Network)を提案する。
これはMambaアーキテクチャの上に構築され、長距離依存関係を同時にキャプチャし、地域的特徴表現を強化する。
マルチスケールの畳み込みによって処理される特徴マップに対して適応的なパッチスキャンを行い、リッチなローカル領域情報をキャプチャする。
論文 参考訳(メタデータ) (2025-08-14T11:31:43Z) - Convergence Analysis for Deep Sparse Coding via Convolutional Neural Networks [7.956678963695681]
スパースコーディングとディープラーニングの交差点を探索し,特徴抽出能力の理解を深める。
我々は、畳み込みニューラルネットワーク(CNN)のスパース特徴抽出能力の収束率を導出する。
スパースコーディングとCNNの強いつながりにインスパイアされた私たちは、ニューラルネットワークがよりスパースな機能を学ぶように促すトレーニング戦略を探求する。
論文 参考訳(メタデータ) (2024-08-10T12:43:55Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Spiking Generative Adversarial Network with Attention Scoring Decoding [4.5727987473456055]
スパイクニューラルネットワークは、脳のような処理に近づいた近似を提供する。
我々は複雑な画像を扱うことができるスパイク生成対向ネットワークを構築した。
論文 参考訳(メタデータ) (2023-05-17T14:35:45Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。