論文の概要: iCapsNets: Towards Interpretable Capsule Networks for Text
Classification
- arxiv url: http://arxiv.org/abs/2006.00075v1
- Date: Sat, 16 May 2020 04:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 12:48:22.702809
- Title: iCapsNets: Towards Interpretable Capsule Networks for Text
Classification
- Title(参考訳): iCapsNets: テキスト分類のための解釈可能なカプセルネットワークを目指して
- Authors: Zhengyang Wang, Xia Hu, Shuiwang Ji
- Abstract要約: 従来の機械学習手法は容易に解釈できるが、精度は低い。
このギャップを埋めるために、解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsは、ローカルとグローバルの両方で解釈できる。
- 参考スコア(独自算出の注目度): 95.31786902390438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many text classification applications require models with satisfying
performance as well as good interpretability. Traditional machine learning
methods are easy to interpret but have low accuracies. The development of deep
learning models boosts the performance significantly. However, deep learning
models are typically hard to interpret. In this work, we propose interpretable
capsule networks (iCapsNets) to bridge this gap. iCapsNets use capsules to
model semantic meanings and explore novel methods to increase interpretability.
The design of iCapsNets is consistent with human intuition and enables it to
produce human-understandable interpretation results. Notably, iCapsNets can be
interpreted both locally and globally. In terms of local interpretability,
iCapsNets offer a simple yet effective method to explain the predictions for
each data sample. On the other hand, iCapsNets explore a novel way to explain
the model's general behavior, achieving global interpretability. Experimental
studies show that our iCapsNets yield meaningful local and global
interpretation results, without suffering from significant performance loss
compared to non-interpretable methods.
- Abstract(参考訳): 多くのテキスト分類アプリケーションは、十分な性能と優れた解釈性を持つモデルを必要とする。
従来の機械学習手法は容易に解釈できるが、精度は低い。
ディープラーニングモデルの開発は、パフォーマンスを大幅に向上させる。
しかし、ディープラーニングモデルは一般的に解釈が難しい。
本研究では,このギャップを埋めるために,解釈可能なカプセルネットワーク(iCapsNets)を提案する。
iCapsNetsはカプセルを使って意味をモデル化し、解釈可能性を高める新しい方法を模索している。
iCapsNetsの設計は人間の直感と一致しており、人間の理解可能な解釈結果を生成することができる。
特に、iCapsNetsはローカルとグローバルの両方で解釈できる。
局所的な解釈可能性に関しては、iCapsNetsは各データサンプルの予測を説明するのにシンプルだが効果的な方法を提供している。
一方、iCapsNetsはモデルの一般的な振る舞いを説明する新しい方法を模索し、グローバルな解釈可能性を実現する。
実験により,iCapsNetsは,非解釈可能な手法に比べて大きな性能損失を被ることなく,意味のある局所的および大域的解釈結果が得られることが示された。
関連論文リスト
- This actually looks like that: Proto-BagNets for local and global interpretability-by-design [5.037593461859481]
解釈可能性(Interpretability)は、高度なアプリケーションで機械学習モデルを使用するための重要な要件である。
本稿では,解釈可能なプロトタイプベースモデルであるProto-BagNetsを紹介する。
Proto-BagNetは、忠実で正確で臨床的に意味のあるローカルおよびグローバルな説明を提供する。
論文 参考訳(メタデータ) (2024-06-21T14:12:15Z) - Sparse Feature Circuits: Discovering and Editing Interpretable Causal Graphs in Language Models [55.19497659895122]
本稿ではスパース特徴回路の発見と適用方法を紹介する。
これらは言語モデルの振る舞いを説明するための人間の解釈可能な特徴の因果関係の著作である。
論文 参考訳(メタデータ) (2024-03-28T17:56:07Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Towards the Characterization of Representations Learned via
Capsule-based Network Architectures [0.0]
Capsule Networks (CapsNets) は、標準的なディープニューラルネットワークのよりコンパクトで解釈可能な代替品として再導入された。
本稿では,これらのタイプのネットワークの解釈可能性を評価するための,体系的で原則的な研究を行う。
MNIST, SVHN, PASCAL-part, CelebAデータセットにおける解析から, CapsNetsで符号化された表現は, 文献で一般的に述べられているような部分的関係とは無関係で, 厳密には関係がない可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-09T11:20:11Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Pushing the Limits of Capsule Networks [1.8231854497751137]
畳み込みニューラルネットワークは、互いに相対的に特徴の場所の表現を明示的に保持しない。
Google Brainのチームが最近、この問題を解決しようとしている: Capsule Networks。
CapsNetのパフォーマンスと表現性をよりよく理解するために、さまざまなインクリメンタルな方法でテストしたいと思っています。
論文 参考訳(メタデータ) (2021-03-15T00:30:34Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。