論文の概要: Captum: A unified and generic model interpretability library for PyTorch
- arxiv url: http://arxiv.org/abs/2009.07896v1
- Date: Wed, 16 Sep 2020 18:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 22:52:28.949628
- Title: Captum: A unified and generic model interpretability library for PyTorch
- Title(参考訳): Captum: PyTorch用の統一的で汎用的なモデル解釈可能性ライブラリ
- Authors: Narine Kokhlikyan, Vivek Miglani, Miguel Martin, Edward Wang, Bilal
Alsallakh, Jonathan Reynolds, Alexander Melnikov, Natalia Kliushkina, Carlos
Araya, Siqi Yan, Orion Reblitz-Richardson
- Abstract要約: 我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
- 参考スコア(独自算出の注目度): 49.72749684393332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce a novel, unified, open-source model
interpretability library for PyTorch [12]. The library contains generic
implementations of a number of gradient and perturbation-based attribution
algorithms, also known as feature, neuron and layer importance algorithms, as
well as a set of evaluation metrics for these algorithms. It can be used for
both classification and non-classification models including graph-structured
models built on Neural Networks (NN). In this paper we give a high-level
overview of supported attribution algorithms and show how to perform
memory-efficient and scalable computations. We emphasize that the three main
characteristics of the library are multimodality, extensibility and ease of
use. Multimodality supports different modality of inputs such as image, text,
audio or video. Extensibility allows adding new algorithms and features. The
library is also designed for easy understanding and use. Besides, we also
introduce an interactive visualization tool called Captum Insights that is
built on top of Captum library and allows sample-based model debugging and
visualization using feature importance metrics.
- Abstract(参考訳): 本稿では,pytorch [12] 用の新しい統一的なオープンソースモデル解釈ライブラリを提案する。
このライブラリには、いくつかの勾配および摂動に基づく帰属アルゴリズム(機能、ニューロンおよび層重要アルゴリズムとしても知られている)の汎用実装と、これらのアルゴリズムの評価指標が含まれている。
ニューラルネットワーク(NN)上に構築されたグラフ構造化モデルを含む分類モデルと非分類モデルの両方に使用できる。
本稿では,サポート対象の属性アルゴリズムの高レベルな概要と,メモリ効率とスケーラブルな計算方法を示す。
このライブラリの主な特徴は、マルチモダリティ、拡張性、使いやすさである。
マルチモダリティは、画像、テキスト、オーディオ、ビデオなどの入力の異なるモダリティをサポートする。
拡張性により、新しいアルゴリズムと機能を追加できる。
ライブラリは理解と使用を容易にするように設計されている。
さらに,captumライブラリ上に構築されたcaptum insightsというインタラクティブなビジュアライゼーションツールも導入しています。
関連論文リスト
- The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - TorchNTK: A Library for Calculation of Neural Tangent Kernels of PyTorch
Models [16.30276204466139]
我々は、PyTorchフレームワークでニューラルネットワークモデルの実験的ニューラルネットワークカーネル(NTK)を計算するためのピソンライブラリであるTorchNTKを紹介する。
このライブラリの特徴は、ユーザをレイヤワイドNTKコンポーネントに公開し、階層ワイドの計算がよりメモリ効率が高いことを示すことである。
論文 参考訳(メタデータ) (2022-05-24T21:27:58Z) - DomiKnowS: A Library for Integration of Symbolic Domain Knowledge in
Deep Learning [12.122347427933637]
ディープラーニングアーキテクチャにおけるドメイン知識の統合のためのライブラリを実演する。
このライブラリを使用すると、データの構造はグラフ宣言によって象徴的に表現される。
ドメイン知識は明確に定義することができ、モデルの説明可能性を改善する。
論文 参考訳(メタデータ) (2021-08-27T16:06:42Z) - Benchpress: A Scalable and Versatile Workflow for Benchmarking Structure
Learning Algorithms [1.7188280334580197]
確率的グラフィカルモデルは、データ生成メカニズムをモデル化するための一般的なアプローチである。
我々は、スケーラブルで再現性があり、プラットフォームに依存しないベンチマークを作成するために、Benchpressという新しいSnakemakeワークフローを提案する。
ベイジアンネットワークを5つの典型的なデータシナリオで学習するためのこのワークフローの適用性を実証する。
論文 参考訳(メタデータ) (2021-07-08T14:19:28Z) - Efficient Graph Deep Learning in TensorFlow with tf_geometric [53.237754811019464]
グラフ深層学習のための効率的でフレンドリなライブラリであるtf_geometricを導入する。
tf_geometricは、人気のあるGNNの実装と同様に、グラフニューラルネットワーク(GNN)を構築するためのカーネルライブラリを提供する。
カーネルライブラリは、グラフデータ構造、グラフマップ-リデュースフレームワーク、グラフミニバッチ戦略など、効率的なGNNを構築するためのインフラストラクチャで構成されている。
論文 参考訳(メタデータ) (2021-01-27T17:16:36Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - FuncNN: An R Package to Fit Deep Neural Networks Using Generalized Input
Spaces [0.0]
関数型ニューラルネットワーク(FuncNN)ライブラリは、あらゆるプログラミング言語で最初のパッケージである。
本稿では,モデルの構築や予測,クロスバリデーションの実行を容易にする機能を紹介する。
論文 参考訳(メタデータ) (2020-09-18T22:32:29Z) - An Advance on Variable Elimination with Applications to Tensor-Based
Computation [11.358487655918676]
本稿では,確率的推論を含む多くのアルゴリズムの基盤となる可変除去の古典的アルゴリズムについて述べる。
結果は機能的依存関係の活用に関連しており、非常に大きなツリー幅を持つモデルで推論と学習を効率的に行うことができる。
論文 参考訳(メタデータ) (2020-02-21T14:17:44Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。