論文の概要: Interpretable Neural Networks with Frank-Wolfe: Sparse Relevance Maps
and Relevance Orderings
- arxiv url: http://arxiv.org/abs/2110.08105v1
- Date: Fri, 15 Oct 2021 14:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 15:19:17.457802
- Title: Interpretable Neural Networks with Frank-Wolfe: Sparse Relevance Maps
and Relevance Orderings
- Title(参考訳): Frank-Wolfeによる解釈可能なニューラルネットワーク:スパース関連マップと関連順序付け
- Authors: Jan Macdonald, Mathieu Besan\c{c}on, Sebastian Pokutta
- Abstract要約: RDE(Rate-Distortion Explanations)法を改訂することで、関係マップの空間性を正確に制御することができる。
フランク=ウルフアルゴリズムのいくつかの決定論的・決定論的変種とそのRDEに対する有効性を示す。
- 参考スコア(独自算出の注目度): 22.586474627159287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the effects of constrained optimization formulations and Frank-Wolfe
algorithms for obtaining interpretable neural network predictions.
Reformulating the Rate-Distortion Explanations (RDE) method for relevance
attribution as a constrained optimization problem provides precise control over
the sparsity of relevance maps. This enables a novel multi-rate as well as a
relevance-ordering variant of RDE that both empirically outperform standard RDE
in a well-established comparison test. We showcase several deterministic and
stochastic variants of the Frank-Wolfe algorithm and their effectiveness for
RDE.
- Abstract(参考訳): 制約付き最適化定式化とfrank-wolfeアルゴリズムのニューラルネットワーク予測に対する効果について検討した。
制約付き最適化問題としてRDE(Rate-Distortion Explanations)法を改訂することで、関係マップの空間性を正確に制御することができる。
これにより、新しいマルチレートとRDEの関連順序の変種が、よく確立された比較テストにおいて、どちらも標準RDEよりも経験的に優れている。
本稿ではFrank-Wolfeアルゴリズムのいくつかの決定論的および確率的変種とその RDE の有効性を示す。
関連論文リスト
- Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - A network-constrain Weibull AFT model for biomarkers discovery [0.0]
AFTNetはWeibullAccelerated failure time (AFT)モデルに基づくネットワーク制約サバイバル分析手法である。
本稿では,近位勾配法に基づく効率的な反復計算アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-28T11:12:53Z) - DFWLayer: Differentiable Frank-Wolfe Optimization Layer [33.20550212188619]
ニューラルネットワークに基づく機械学習の分野において、差別化可能な最適化は基礎的な役割を担っているため、かなりの注目を集めている。
本稿では,Frank-Wolfe法をロールアウトした微分可能なFrank-Wolfe Layer (DFWLayer)を提案する。
実験の結果、DFWLayerは解と勾配の競争精度を得るだけでなく、制約に一貫して従うことを示した。
論文 参考訳(メタデータ) (2023-08-21T15:53:38Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - A Deep Learning approach to Reduced Order Modelling of Parameter
Dependent Partial Differential Equations [0.2148535041822524]
パラメーター対解写像の効率的な近似法として,Deep Neural Networks に基づく構築的アプローチを開発した。
特に, パラメタライズド・アドベクション拡散PDEについて検討し, 強輸送場の存在下で方法論を検証した。
論文 参考訳(メタデータ) (2021-03-10T17:01:42Z) - Deep Neural Network Training with Frank-Wolfe [17.5320459412718]
本稿では、凸可能領域によってパラメータが制約されるニューラルネットワークのトレーニングの実現可能性を示す。
また、パフォーマンスへの影響に加えて、特定の制約の選択が学習した表現に大きな影響を与えることも示しています。
論文 参考訳(メタデータ) (2020-10-14T17:03:58Z) - Iterative Surrogate Model Optimization (ISMO): An active learning
algorithm for PDE constrained optimization with deep neural networks [14.380314061763508]
反復代理モデル最適化(ISMO)と呼ばれる新しい能動学習アルゴリズムを提案する。
このアルゴリズムはディープニューラルネットワークに基づいており、その重要な特徴は、ディープニューラルネットワークと基礎となる標準最適化アルゴリズムの間のフィードバックループを通じて、トレーニングデータの反復的な選択である。
論文 参考訳(メタデータ) (2020-08-13T07:31:07Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。