論文の概要: Argumentation Element Annotation Modeling using XLNet
- arxiv url: http://arxiv.org/abs/2311.06239v1
- Date: Fri, 10 Nov 2023 18:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 14:18:04.269117
- Title: Argumentation Element Annotation Modeling using XLNet
- Title(参考訳): XLNetを用いた調停要素アノテーションモデリング
- Authors: Christopher Ormerod, Amy Burkhardt, Mackenzie Young, and Sue Lottridge
- Abstract要約: 本研究では,変圧器を用いた言語モデルであるXLNetの有効性を示す。
XLNetのアーキテクチャには、長文の長期依存をモデル化するための繰り返しメカニズムが組み込まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study demonstrates the effectiveness of XLNet, a transformer-based
language model, for annotating argumentative elements in persuasive essays.
XLNet's architecture incorporates a recurrent mechanism that allows it to model
long-term dependencies in lengthy texts. Fine-tuned XLNet models were applied
to three datasets annotated with different schemes - a proprietary dataset
using the Annotations for Revisions and Reflections on Writing (ARROW) scheme,
the PERSUADE corpus, and the Argument Annotated Essays (AAE) dataset. The XLNet
models achieved strong performance across all datasets, even surpassing human
agreement levels in some cases. This shows XLNet capably handles diverse
annotation schemes and lengthy essays. Comparisons between the model outputs on
different datasets also revealed insights into the relationships between the
annotation tags. Overall, XLNet's strong performance on modeling argumentative
structures across diverse datasets highlights its suitability for providing
automated feedback on essay organization.
- Abstract(参考訳): 本研究は,説得的エッセイにおける議論的要素を注釈するトランスフォーマティブ言語モデルであるxlnetの有効性を示す。
XLNetのアーキテクチャには、長文の長期依存をモデル化するための繰り返しメカニズムが組み込まれている。
微調整されたXLNetモデルは、さまざまなスキームで注釈付けされた3つのデータセット(ARROW(Annotations for Revisions and Reflections on Writing)スキーム、PERSUADEコーパス、Argument Annotated Essays(AAE)データセット)に適用された。
XLNetモデルはすべてのデータセットで強力なパフォーマンスを実現し、場合によっては人間の合意レベルを超えている。
これはXLNetが様々なアノテーションスキームや長いエッセイを扱えることを示している。
異なるデータセットにおけるモデル出力の比較も、アノテーションタグ間の関係に関する洞察を明らかにした。
全体として、さまざまなデータセットにわたる議論構造をモデル化するxlnetの強みは、エッセイ組織に自動フィードバックを提供するのに適している点を強調している。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Transformer Architecture for NetsDB [0.0]
我々はNetsDBで機能するディープラーニングモデルのためのトランスフォーマーのエンドツーエンド実装を作成します。
分散処理、デプロイメント、効率的な推論のために、当社のモデルから重みをロードします。
論文 参考訳(メタデータ) (2024-05-08T04:38:36Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Unveiling the Multi-Annotation Process: Examining the Influence of
Annotation Quantity and Instance Difficulty on Model Performance [1.7343894615131372]
データセットがインスタンス毎にひとつのアノテーションから複数のアノテーションに拡張された場合、パフォーマンススコアがどのように変化するかを示す。
アノテーション予算の異なるデータセットを生成するための,新しいマルチアノテーションシミュレーションプロセスを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:12:41Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Few-Shot Table-to-Text Generation with Prototype Memory [14.69889589370148]
本稿では,プロトタイプ・ツー・ジェネレーション (P2G) という,プロトタイプ・トゥ・ジェネレーション(Prototype-to-Generate, P2G) を用いたテーブル・トゥ・テキスト生成手法を提案する。
提案フレームワークは、IRシステムと新しいプロトタイプセレクタによって共同で選択された、検索されたプロトタイプを利用する。
3つの最先端モデルを用いた3つのベンチマークデータセットの実験結果から,提案手法がモデル性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2021-08-27T22:16:30Z) - DialogXL: All-in-One XLNet for Multi-Party Conversation Emotion
Recognition [9.782331919669788]
本稿では,予め訓練された言語モデルを用いた会話における感情認識(ERC)の先駆的取り組みについて述べる。
本稿では,メモリを拡張したオールインワンXLNetモデルDialogXLを提案する。
また,xlnetにおけるバニラセルフアテンションに代わるダイアログアウェアな自己アテンションを導入し,有用な話者間および話者間依存性を捉える。
論文 参考訳(メタデータ) (2020-12-16T01:50:46Z) - Group Communication with Context Codec for Ultra-Lightweight Source
Separation [32.975741399690214]
モデル性能を犠牲にすることなく、モデルサイズと複雑さの両方を減らすために、コンテキスト(GC3)設計によるグループコミュニケーションを提案します。
GC3は2.5%のモデルサイズで、幅広いベースラインアーキテクチャよりも同等または優れた性能を達成できる。
論文 参考訳(メタデータ) (2020-12-14T06:57:58Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。