論文の概要: Multi-Task Learning Improves Performance In Deep Argument Mining Models
- arxiv url: http://arxiv.org/abs/2307.01401v1
- Date: Mon, 3 Jul 2023 23:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 18:47:13.551003
- Title: Multi-Task Learning Improves Performance In Deep Argument Mining Models
- Title(参考訳): マルチタスク学習による深部引数マイニングモデルの性能向上
- Authors: Amirhossein Farzam, Shashank Shekhar, Isaac Mehlhaff, Marco Morucci
- Abstract要約: 議論マイニングタスクは、議論マイニングのためのマルチタスクアプローチを実装することで、共通の意味と論理構造を共有していることを示す。
本研究は,テキストから議論的手法を抽出するための総合的アプローチを提案するとともに,課題が相似であることから,議論的マイニングにおいて重要である。
- 参考スコア(独自算出の注目度): 2.2312474084968024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The successful analysis of argumentative techniques from user-generated text
is central to many downstream tasks such as political and market analysis.
Recent argument mining tools use state-of-the-art deep learning methods to
extract and annotate argumentative techniques from various online text corpora,
however each task is treated as separate and different bespoke models are
fine-tuned for each dataset. We show that different argument mining tasks share
common semantic and logical structure by implementing a multi-task approach to
argument mining that achieves better performance than state-of-the-art methods
for the same problems. Our model builds a shared representation of the input
text that is common to all tasks and exploits similarities between tasks in
order to further boost performance via parameter-sharing. Our results are
important for argument mining as they show that different tasks share
substantial similarities and suggest a holistic approach to the extraction of
argumentative techniques from text.
- Abstract(参考訳): ユーザ生成テキストからの議論的手法の分析の成功は、政治や市場分析などの下流業務の中心である。
近年の議論マイニングツールは、様々なオンラインテキストコーパスから議論的手法を抽出し注釈付けするために最先端のディープラーニング手法を用いているが、各タスクは個別に扱われ、各データセットに対して異なる観測モデルが微調整される。
議論マイニングタスクは、同じ問題に対して最先端の手法よりも優れた性能を実現するマルチタスクアプローチにより、共通意味と論理構造を共有することを示す。
我々のモデルは、全てのタスクに共通する入力テキストの共有表現を構築し、パラメータ共有によるパフォーマンス向上のためにタスク間の類似性を利用する。
その結果、異なるタスクが実質的な類似性を共有し、テキストから議論的手法を抽出するための包括的アプローチが示唆されるため、議論マイニングにおいて重要である。
関連論文リスト
- Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - DiSparse: Disentangled Sparsification for Multitask Model Compression [92.84435347164435]
DiSparseは、シンプルで効果的で、第一級のマルチタスクプルーニングとスパーストレーニングスキームである。
実験の結果,様々な設定や設定において優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-09T17:57:46Z) - Diversity Over Size: On the Effect of Sample and Topic Sizes for Topic-Dependent Argument Mining Datasets [49.65208986436848]
本研究では,アーギュメント・マイニング・データセットの構成が,少数・ゼロショット設定における影響について検討する。
実験結果から, モデル性能の達成には微調整が必須であるが, 慎重に構成したトレーニングサンプルを用いることで, トレーニングサンプルサイズを最大90%まで下げることで, 最大性能の95%を達成できることがわかった。
論文 参考訳(メタデータ) (2022-05-23T17:14:32Z) - Can Unsupervised Knowledge Transfer from Social Discussions Help
Argument Mining? [25.43442712037725]
本稿では,教師なし,議論型対話型知識の課題を克服するために,新しい伝達学習戦略を提案する。
本研究では,ChangeMyViewのサブレディットからの議論に富んだ社会的な議論を,教師なしの議論型知識の源泉として活用する。
本稿では,提案手法を補完する,コンポーネント間関係予測のための新しいプロンプトベースの戦略を提案する。
論文 参考訳(メタデータ) (2022-03-24T06:48:56Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z) - The Devil is in the Details: Evaluating Limitations of Transformer-based
Methods for Granular Tasks [19.099852869845495]
トランスフォーマーベースのニューラルネットワークモデルから派生したコンテキスト埋め込みは、様々なタスクに対して最先端のパフォーマンスを示している。
本稿では,文書の粒度の一致と抽象レベルという2つの観点から,テキストの類似性の問題に焦点をあてる。
異なるドメインからの2つのデータセットに対して、期待されるように抽象的なドキュメントマッチングのパフォーマンスが高いにもかかわらず、コンテキスト埋め込みは、よりきめ細かいタスクのためにTF-IDFのような単純なベースラインによって一貫して(そして非常に)パフォーマンスが向上していることを実証的に実証した。
論文 参考訳(メタデータ) (2020-11-02T18:41:32Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。