論文の概要: ProtoLens: Advancing Prototype Learning for Fine-Grained Interpretability in Text Classification
- arxiv url: http://arxiv.org/abs/2410.17546v1
- Date: Wed, 23 Oct 2024 03:53:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:57:15.347762
- Title: ProtoLens: Advancing Prototype Learning for Fine-Grained Interpretability in Text Classification
- Title(参考訳): ProtoLens:テキスト分類における微粒化解釈性向上のためのプロトタイプ学習
- Authors: Bowen Wei, Ziwei Zhu,
- Abstract要約: ProtoLensはプロトタイプベースのモデルで、テキスト分類のための詳細なサブ文レベルの解釈機能を提供する。
ProtoLensは、Prototype-aware Span extractモジュールを使用して、関連するテキストスパンを識別する。
ProtoLensは、競争精度を維持しながら解釈可能な予測を提供する。
- 参考スコア(独自算出の注目度): 1.9526476410335776
- License:
- Abstract: Deep neural networks have achieved remarkable performance in various text-based tasks but often lack interpretability, making them less suitable for applications where transparency is critical. To address this, we propose ProtoLens, a novel prototype-based model that provides fine-grained, sub-sentence level interpretability for text classification. ProtoLens uses a Prototype-aware Span Extraction module to identify relevant text spans associated with learned prototypes and a Prototype Alignment mechanism to ensure prototypes are semantically meaningful throughout training. By aligning the prototype embeddings with human-understandable examples, ProtoLens provides interpretable predictions while maintaining competitive accuracy. Extensive experiments demonstrate that ProtoLens outperforms both prototype-based and non-interpretable baselines on multiple text classification benchmarks. Code and data are available at \url{https://anonymous.4open.science/r/ProtoLens-CE0B/}.
- Abstract(参考訳): ディープニューラルネットワークは、さまざまなテキストベースのタスクにおいて顕著なパフォーマンスを達成したが、解釈可能性に欠けることが多く、透明性が不可欠であるアプリケーションには適さない。
そこで本研究では,テキスト分類のためのサブ文レベルの微粒化を実現するプロトタイプベースモデルであるProtoLensを提案する。
ProtoLensは、学習したプロトタイプに関連するテキストスパンを特定するために、Prototype-aware Span extractモジュールと、トレーニングを通じてプロトタイプが意味のあるものであることを保証するPrototype Alignmentメカニズムを使用している。
ProtoLensはプロトタイプの埋め込みを人間の理解できない例に合わせることで、競争精度を維持しながら解釈可能な予測を提供する。
大規模な実験により、ProtoLensはプロトタイプベースと非解釈可能なベースラインの両方を、複数のテキスト分類ベンチマークで比較した。
コードとデータは \url{https://anonymous.4open.science/r/ProtoLens-CE0B/} で公開されている。
関連論文リスト
- Multi-Scale Grouped Prototypes for Interpretable Semantic Segmentation [7.372346036256517]
意味的セグメンテーションを解釈可能なものにするための、有望なアプローチとして、プロトタイプ的な部分学習が登場している。
本稿では,多スケール画像表現を利用した意味的セグメンテーションの解釈手法を提案する。
Pascal VOC,Cityscapes,ADE20Kで行った実験により,提案手法はモデルの疎結合性を高め,既存のプロトタイプ手法よりも解釈可能性を高め,非解釈可能なモデルとの性能ギャップを狭めることを示した。
論文 参考訳(メタデータ) (2024-09-14T17:52:59Z) - Sign Language Translation with Iterative Prototype [104.76761930888604]
IP-SLTは手話翻訳のためのシンプルだが効果的なフレームワークである
我々の考えは、人間の読みの振る舞いを模倣し、文を何度も消化して、正確な理解を得るというものである。
論文 参考訳(メタデータ) (2023-08-23T15:27:50Z) - Contrastive Learning with Prompt-derived Virtual Semantic Prototypes for
Unsupervised Sentence Embedding [24.350264932134078]
本稿では, Prompt- derived Virtual semantic Prototypes (ConPVP) を用いた新しいコントラスト学習手法を提案する。
仮想的な意味的プロトタイプを各インスタンスに構築し、負のプロンプト形式を用いて負のプロトタイプを導出する。
対照的な損失を用いて,アンカー文の埋め込みを,対応するセマンティックプロトタイプに近づけるように強制する。
論文 参考訳(メタデータ) (2022-11-07T07:50:30Z) - ProtoTEx: Explaining Model Decisions with Prototype Tensors [27.779971257213553]
ProtoTExは、プロトタイプネットワークに基づく新しいホワイトボックスのNLP分類アーキテクチャである。
本稿では,表現的特徴の欠如を特徴とするクラスを効果的に扱う新しいインターリーブ学習アルゴリズムについて述べる。
プロパガンダ検出タスクでは、ProtoTExの精度はBART-largeと一致し、BERT-largeを超える。
論文 参考訳(メタデータ) (2022-04-11T22:08:45Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - ProtoryNet - Interpretable Text Classification Via Prototype
Trajectories [4.768286204382179]
本稿では,ProtoryNetと呼ばれるテキスト分類のための新しい解釈可能なディープニューラルネットワークを提案する。
ProtoryNetはテキストシーケンスで各文の最も類似したプロトタイプを見つけることによって予測を行う。
プロトタイプのプルーニングの後、結果のProtoryNetモデルは、すべてのデータセットに対して、20のプロトタイプしか必要としない。
論文 参考訳(メタデータ) (2020-07-03T16:00:26Z) - Learning Sparse Prototypes for Text Generation [120.38555855991562]
プロトタイプ駆動のテキスト生成は、トレーニングコーパス全体の保存とインデックスを必要とするため、テスト時に非効率である。
本稿では,言語モデリング性能を向上するスパースなプロトタイプサポートセットを自動的に学習する新しい生成モデルを提案する。
実験では,1000倍のメモリ削減を実現しつつ,従来のプロトタイプ駆動型言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-06-29T19:41:26Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。