論文の概要: A Novel Perspective to Look At Attention: Bi-level Attention-based
Explainable Topic Modeling for News Classification
- arxiv url: http://arxiv.org/abs/2203.07216v1
- Date: Mon, 14 Mar 2022 15:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 15:17:33.115699
- Title: A Novel Perspective to Look At Attention: Bi-level Attention-based
Explainable Topic Modeling for News Classification
- Title(参考訳): 注目を集める新しい視点--ニュース分類のための二段階注意に基づく説明可能なトピックモデリング
- Authors: Dairui Liu, Derek Greene, and Ruihai Dong
- Abstract要約: 本稿では,2層アテンションアーキテクチャを用いて,説明の複雑さと意思決定過程を分離する新しい枠組みを提案する。
2つの大規模ニュースコーパスの実験は、提案モデルが多くの最先端の代替品と競合する性能を達成できることを実証している。
- 参考スコア(独自算出の注目度): 5.180648702293017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many recent deep learning-based solutions have widely adopted the
attention-based mechanism in various tasks of the NLP discipline. However, the
inherent characteristics of deep learning models and the flexibility of the
attention mechanism increase the models' complexity, thus leading to challenges
in model explainability. In this paper, to address this challenge, we propose a
novel practical framework by utilizing a two-tier attention architecture to
decouple the complexity of explanation and the decision-making process. We
apply it in the context of a news article classification task. The experiments
on two large-scaled news corpora demonstrate that the proposed model can
achieve competitive performance with many state-of-the-art alternatives and
illustrate its appropriateness from an explainability perspective.
- Abstract(参考訳): 最近のディープラーニングベースのソリューションの多くは、NLP分野の様々なタスクにおいて注意に基づくメカニズムを広く採用している。
しかしながら、ディープラーニングモデルの固有の特徴と注意機構の柔軟性はモデルの複雑さを増加させ、モデル説明可能性の課題に繋がる。
本稿では,この課題に対処するために,二層注意アーキテクチャを用いて,説明の複雑さと意思決定過程を分離する,新しい実践的枠組みを提案する。
我々はこれをニュース記事分類タスクの文脈に適用する。
2つの大規模ニュースコーポラにおける実験により,提案モデルが最先端の代替手段で競争性能を達成できることが示され,説明可能性の観点からその妥当性が示された。
関連論文リスト
- Explainable Deep Learning Framework for Human Activity Recognition [3.9146761527401424]
本稿では,HARモデルの解釈性と有効性を高めるモデル非依存フレームワークを提案する。
競争力のあるデータ拡張を実装することで、我々のフレームワークはモデル決定の直感的でアクセスしやすい説明を提供する。
論文 参考訳(メタデータ) (2024-08-21T11:59:55Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Unified View of Grokking, Double Descent and Emergent Abilities: A
Perspective from Circuits Competition [83.13280812128411]
近年の研究では、グラッキング、二重降下、大規模言語モデルにおける創発的能力など、ディープラーニングにおける興味深い現象が明らかにされている。
本稿では,記憶回路と一般化回路の競合に着目し,これら3つの現象の統一的な見方を提供する包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-23T08:14:36Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z) - Repulsive Attention: Rethinking Multi-head Attention as Bayesian
Inference [68.12511526813991]
ベイズの視点からの多面的注目の新たな理解を提供する。
マルチヘッドアテンションにおける反発性を明示的に改善する非パラメトリックアプローチを提案する。
様々な注意モデルや応用実験により、提案された反発的注意が学習された特徴の多様性を向上させることが示されている。
論文 参考訳(メタデータ) (2020-09-20T06:32:23Z) - SEEK: Segmented Embedding of Knowledge Graphs [77.5307592941209]
本稿では,モデル複雑性を増大させることなく,高い競争力を持つ関係表現性を実現する軽量なモデリングフレームワークを提案する。
本フレームワークは,評価関数の設計に重点を置いており,1)十分な特徴相互作用の促進,2)関係の対称性と反対称性の両特性の保存,という2つの重要な特徴を強調している。
論文 参考訳(メタデータ) (2020-05-02T15:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。