論文の概要: Multi-Task Attentive Residual Networks for Argument Mining
- arxiv url: http://arxiv.org/abs/2102.12227v1
- Date: Wed, 24 Feb 2021 11:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 02:11:05.268496
- Title: Multi-Task Attentive Residual Networks for Argument Mining
- Title(参考訳): 引数マイニングのためのマルチタスク注意残差ネットワーク
- Authors: Andrea Galassi, Marco Lippi, Paolo Torroni
- Abstract要約: 本稿では,注目度,マルチタスク学習,アンサンブルを利用した残差アーキテクチャを提案する。
我々は、ユーザ生成コメントからなる挑戦的なデータセットと、科学出版物からなる他の2つのデータセットで評価する。
- 参考スコア(独自算出の注目度): 12.424671213282254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the use of residual networks and neural attention for argument
mining and in particular link prediction. The method we propose makes no
assumptions on document or argument structure. We propose a residual
architecture that exploits attention, multi-task learning, and makes use of
ensemble. We evaluate it on a challenging data set consisting of user-generated
comments, as well as on two other datasets consisting of scientific
publications. On the user-generated content dataset, our model outperforms
state-of-the-art methods that rely on domain knowledge. On the scientific
literature datasets it achieves results comparable to those yielded by
BERT-based approaches but with a much smaller model size.
- Abstract(参考訳): 我々は、議論マイニングおよび特にリンク予測に残存ネットワークと神経的注意の使用を検討する。
提案する手法は文書構造や議論構造を仮定しない。
本稿では,注目度,マルチタスク学習,アンサンブルを利用した残差アーキテクチャを提案する。
我々は、ユーザ生成コメントからなる挑戦的なデータセットと、科学出版物からなる他の2つのデータセットで評価する。
ユーザー生成コンテンツデータセットでは、私たちのモデルはドメイン知識に依存する最先端のメソッドを上回っています。
科学文献データセットでは、BERTベースのアプローチで得られる結果に匹敵する結果が得られるが、モデルサイズははるかに小さい。
関連論文リスト
- Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Multi-Task Learning Improves Performance In Deep Argument Mining Models [2.2312474084968024]
議論マイニングタスクは、議論マイニングのためのマルチタスクアプローチを実装することで、共通の意味と論理構造を共有していることを示す。
本研究は,テキストから議論的手法を抽出するための総合的アプローチを提案するとともに,課題が相似であることから,議論的マイニングにおいて重要である。
論文 参考訳(メタデータ) (2023-07-03T23:42:29Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z) - Making Neural Networks Interpretable with Attribution: Application to
Implicit Signals Prediction [11.427019313283997]
本稿では,属性処理のための解釈可能なディープニューラルネットワークの新たな定式化を提案する。
マスク付きの重量を使って隠れた特徴を深く評価し、いくつかの入力制限されたサブネットワークに分割し、専門家の強化された混合として訓練する。
論文 参考訳(メタデータ) (2020-08-26T06:46:49Z) - Automated Search for Resource-Efficient Branched Multi-Task Networks [81.48051635183916]
我々は,多タスクニューラルネットワークにおける分岐構造を自動的に定義する,微分可能なニューラルネットワーク探索に根ざした原理的アプローチを提案する。
本手法は,限られた資源予算内で高い性能の分岐構造を見いだすことができる。
論文 参考訳(メタデータ) (2020-08-24T09:49:19Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - Deep Multimodal Neural Architecture Search [178.35131768344246]
様々なマルチモーダル学習タスクのための一般化された深層マルチモーダルニューラルアーキテクチャサーチ(MMnas)フレームワークを考案する。
マルチモーダル入力が与えられたら、まずプリミティブ演算のセットを定義し、その後、ディープエンコーダ-デコーダベースの統一バックボーンを構築する。
統合されたバックボーンの上にタスク固有のヘッドをアタッチして、異なるマルチモーダル学習タスクに取り組む。
論文 参考訳(メタデータ) (2020-04-25T07:00:32Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。