論文の概要: Always Keep Your Promises: DynamicLRP, A Model-Agnostic Solution To Layer-Wise Relevance Propagation
- arxiv url: http://arxiv.org/abs/2512.07010v1
- Date: Sun, 07 Dec 2025 21:19:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.637295
- Title: Always Keep Your Promises: DynamicLRP, A Model-Agnostic Solution To Layer-Wise Relevance Propagation
- Title(参考訳): 約束を守る - DynamicLRP - レイヤワイズ関係の伝播に対するモデルに依存しないソリューション
- Authors: Kevin Lee, Pablo Millan Arias,
- Abstract要約: 本稿では,モデルに依存しない LRP フレームワークである DynamicLRP について述べる。
グラフ内の個々の操作に対する属性を分解することにより、遅延活性化分解のための新しいメカニズムを導入する。
この設計はバックプロパゲーションとは独立に動作し、モデル修正なしで任意の計算グラフの操作を可能にする。
- 参考スコア(独自算出の注目度): 3.2051441941273673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Layer-wise Relevance Propagation (LRP) provides principled attribution for neural networks through conservation properties and foundations in Deep Taylor Decomposition. However, existing implementations operate at the module level, requiring architecture-specific propagation rules and modifications. These limit the generality of target model and sustainability of implementations as architectures evolve. We introduce DynamicLRP, a model-agnostic LRP framework operating at the tensor operation level. By decomposing attribution to individual operations within computation graphs and introducing a novel mechanism for deferred activation resolution, named the Promise System, our approach achieves true architecture agnosticity while maintaining LRP's theoretical guarantees. This design operates independently of backpropagation machinery, enabling operation on arbitrary computation graphs without model modification and side-by-side execution with gradient backpropagation. Being based on computation graphs, this method is theoretically extensible to other deep learning libraries that support auto-differentiation. We demonstrate faithfulness matching or exceeding specialized implementations (1.77 vs 1.69 ABPC on VGG, equivalent performance on ViT, 93.70\% and 95.06\% top-1 attribution accuracy for explaining RoBERTa-large and Flan-T5-large answers on SQuADv2, respectively) while maintaining practical efficiency on models with hundreds of millions of parameters. We achieved 99.92\% node coverage across 31,465 computation graph nodes from 15 diverse architectures, including state-space models (Mamba), audio transformers (Whisper), and multimodal systems (DePlot) without any model-specific code with rules for 47 fundamental operations implemented. Our operation-level decomposition and Promise System establish a sustainable, extensible foundation for LRP across evolving architectures.
- Abstract(参考訳): レイヤワイド関連伝播(Layer-wise Relevance Propagation, LRP)は、ディープ・テイラー分解の保存特性と基礎を通して、ニューラルネットワークに対する原則的帰属を提供する。
しかし、既存の実装はモジュールレベルで動作しており、アーキテクチャ固有の伝搬ルールと修正が必要である。
これにより、アーキテクチャが進化するにつれて、ターゲットモデルの汎用性と実装の持続可能性を制限する。
テンソル演算レベルで動作するモデルに依存しないLRPフレームワークであるDynamicLRPを紹介する。
計算グラフ内の個々の操作への属性を分解し、Promise Systemと呼ばれる遅延活性化解決のための新しいメカニズムを導入することにより、LRPの理論的保証を維持しながら真のアーキテクチャ非依存を実現する。
この設計はバックプロパゲーション機構とは独立に動作し、モデル修正なしで任意の計算グラフ上での演算と勾配バックプロパゲーションによるサイドバイサイド実行を可能にする。
この手法は計算グラフに基づいており、自動微分をサポートする他のディープラーニングライブラリに対して理論的に拡張可能である。
我々は,VGG上での1.77対1.69ABPC,ViTにおける同等性能,93.70\%および95.06\%のトップ-1属性の精度を,SQuADv2上でのRoBERTa-largeとFlan-T5-largeの解をそれぞれ説明するために示すとともに,数億のパラメータを持つモデルの実用的効率を維持しながら,忠実に一致または超えた特殊実装(VGGG上での1.77対1.69 ABPC,ViTにおける同等性能,95.06\%)を示す。
我々は、ステートスペースモデル(Mamba)、オーディオトランスフォーマー(Whisper)、マルチモーダルシステム(DePlot)を含む15のアーキテクチャから、計算グラフノード31,465個にわたる99.92\%のノードカバレッジを達成した。
我々の運用レベルの分解とPromiseシステムは、進化するアーキテクチャをまたいだLRPの持続的で拡張可能な基盤を確立します。
関連論文リスト
- RL-Struct: A Lightweight Reinforcement Learning Framework for Reliable Structured Output in LLMs [0.08594140167290097]
大規模言語モデル(LLM)は、自然言語の生成と推論において顕著な能力を示した。
自動化されたソフトウェアエコシステムへの統合は、しばしば"構造ギャップ"によって妨げられます。
このギャップを埋めるための軽量で効率的な強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-29T04:47:14Z) - Chart2Code-MoLA: Efficient Multi-Modal Code Generation via Adaptive Expert Routing [20.521717930460692]
C2C-MoLAは、Low-Rank Adaptation (LoRA)とMixture of Experts (MoE)を相乗化するフレームワークである
LoRAは、リソースを意識したチューニングのためのパラメータ効率の更新を可能にする。
Chart2Code-160kの実験では、提案されたモデルにより生成精度が最大17%向上した。
論文 参考訳(メタデータ) (2025-11-28T16:23:04Z) - The Energy-Efficient Hierarchical Neural Network with Fast FPGA-Based Incremental Learning [0.4317207251910848]
従来の勾配に基づくトレーニング手法は非効率であり、多くの反復的な更新と高消費電力を必要とする。
本稿では,階層分解とFPGAに基づく直接方程式解法と漸進学習を組み合わせたハイブリッドフレームワークを提案する。
提案手法では,ニューラルネットワークを2つの機能層に分割する。低層はFPGA上の単一ステップ方程式により最適化され,効率よく並列化可能な特徴抽出が可能であり,高層は適応的な漸進的学習を用いて,完全リトレーニングなしで連続的な更新をサポートする。
論文 参考訳(メタデータ) (2025-09-18T15:54:15Z) - Towards Efficient General Feature Prediction in Masked Skeleton Modeling [59.46799426434277]
マスクスケルトンモデリングのための新しい汎用特徴予測フレームワーク(GFP)を提案する。
我々の重要な革新は、局所的な動きパターンからグローバルな意味表現にまたがる、従来の低レベルな再構築を高レベルな特徴予測に置き換えることです。
論文 参考訳(メタデータ) (2025-09-03T18:05:02Z) - Structural Similarity-Inspired Unfolding for Lightweight Image Super-Resolution [88.20464308588889]
効率的な画像SRのための構造類似インスパイアド・アンフォールディング(SSIU)法を提案する。
この方法は、構造的類似性に制約されたSR最適化関数の展開によって設計される。
我々のモデルは現在の最先端モデルより優れており、パラメータ数が低く、メモリ消費が減少している。
論文 参考訳(メタデータ) (2025-06-13T14:29:40Z) - Instruction-Guided Autoregressive Neural Network Parameter Generation [49.800239140036496]
本稿では,多種多様なタスクやアーキテクチャにまたがるパラメータ合成を統一する自動回帰フレームワークIGPGを提案する。
ニューラルネットワーク重みのトークンを自動回帰的に生成することにより、IGPGは層間コヒーレンスを確保し、モデルとデータセット間の効率的な適応を可能にする。
複数のデータセットの実験により、IGPGは様々な事前訓練されたモデルを単一の柔軟な生成フレームワークに統合することを示した。
論文 参考訳(メタデータ) (2025-04-02T05:50:19Z) - LIFT: Latent Implicit Functions for Task- and Data-Agnostic Encoding [4.759109475818876]
Implicit Neural Representations (INR)は、多様なデータドメインをまたいだタスクモデリングを統合するための強力なパラダイムであることが証明されている。
本稿では,メタラーニングによるマルチスケール情報をキャプチャする新しい高性能フレームワークLIFTを紹介する。
また、残差接続と表現頻度符号化を組み込んだLIFTの強化版であるReLIFTについても紹介する。
論文 参考訳(メタデータ) (2025-03-19T17:00:58Z) - SHA-CNN: Scalable Hierarchical Aware Convolutional Neural Network for Edge AI [6.168286187549952]
本稿では,エッジAIアプリケーションのための階層型認識畳み込みニューラルネットワーク(SHA-CNN)モデルアーキテクチャを提案する。
提案した階層型CNNモデルは、計算効率と精度のバランスをとるために精巧に設計されている。
重要なイノベーションは、モデルの階層的な認識にあり、複数の抽象化レベルで関連する機能を識別し、優先順位付けすることができる。
論文 参考訳(メタデータ) (2024-07-31T06:44:52Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。