論文の概要: KNOWCOMP POKEMON Team at DialAM-2024: A Two-Stage Pipeline for Detecting Relations in Dialogical Argument Mining
- arxiv url: http://arxiv.org/abs/2407.19740v1
- Date: Mon, 29 Jul 2024 07:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 14:56:26.207791
- Title: KNOWCOMP POKEMON Team at DialAM-2024: A Two-Stage Pipeline for Detecting Relations in Dialogical Argument Mining
- Title(参考訳): KNOWCOMP POKEMON Team at DialAM-2024: An Two-Stage Pipeline for Detecting Relations in Dialogical Argument Mining
- Authors: Zihao Zheng, Zhaowei Wang, Qing Zong, Yangqiu Song,
- Abstract要約: ダイアロジカルArgument Mining(DialAM)はArgument Mining(AM)の重要なブランチである
DialAM-2024は対話型引数マイニングに焦点を当てた共有タスクである。
- 参考スコア(独自算出の注目度): 37.70669642859255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogical Argument Mining(DialAM) is an important branch of Argument Mining(AM). DialAM-2024 is a shared task focusing on dialogical argument mining, which requires us to identify argumentative relations and illocutionary relations among proposition nodes and locution nodes. To accomplish this, we propose a two-stage pipeline, which includes the Two-Step S-Node Prediction Model in Stage 1 and the YA-Node Prediction Model in Stage 2. We also augment the training data in both stages and introduce context in Stage 2. We successfully completed the task and achieved good results. Our team Pokemon ranked 1st in the ARI Focused score and 4th in the Global Focused score.
- Abstract(参考訳): ダイアロジカルArgument Mining(DialAM)は、Argument Mining(AM)の重要なブランチである。
DialAM-2024は,対話型議論マイニングに焦点を当てた共有タスクであり,提案ノードとロカティオンノード間の議論的関係と不正関係を識別する必要がある。
そこで我々は,ステージ1の2ステップSノード予測モデルとステージ2のYAノード予測モデルを含む2段階パイプラインを提案する。
また、両方のステージでトレーニングデータを増強し、ステージ2でコンテキストを導入します。
私たちはその仕事を成功させ、良い結果を得た。
我がチームPokemonはARIのFocusedスコアで1位、Global Focusedスコアで4位にランクインしました。
関連論文リスト
- Can Large Language Models perform Relation-based Argument Mining? [15.362683263839772]
引数マイニング(Argument mining、AM)は、テキストから引数、それらのコンポーネント、および/またはコンポーネント間の関係を自動的に抽出するプロセスである。
関係ベースAM(Relation-based AM、RbAM)は、議論における合意(サポート)と不一致(アタック)の関係の特定に焦点を当てたAMの一形態である。
汎用大規模言語モデル (LLM) は, 適切な素数化, 誘導によって, 最高の性能(RoBERTaベース) のベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-02-17T10:37:51Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - Pushing the Limits of ChatGPT on NLP Tasks [79.17291002710517]
ChatGPTの成功にもかかわらず、ほとんどのNLPタスクのパフォーマンスは教師付きベースラインよりかなり低い。
そこで本研究では,原因を調べた結果,以下の要因が原因であることが判明した。
NLPタスクにおけるChatGPTの限界を押し上げるために,これらの問題に対処する汎用モジュールの集合を提案する。
論文 参考訳(メタデータ) (2023-06-16T09:40:05Z) - When and What to Ask Through World States and Text Instructions: IGLU
NLP Challenge Solution [6.36729066736314]
協調作業においては、効果的なコミュニケーションが共同目標達成に不可欠である。
我々は対話を通してユーザ入力に基づく構造を構築するインテリジェントなビルダーエージェントの開発を目指している。
論文 参考訳(メタデータ) (2023-05-09T20:23:17Z) - Full-Text Argumentation Mining on Scientific Publications [3.8754200816873787]
フルテキストSAMに対してADURとAREを組み合わせた逐次パイプラインモデルを提案する。
両サブタスクにおける事前学習言語モデル(PLM)の性能について,最初の解析を行った。
本稿では,非連続型ADUと談話コネクタの解釈が重要な課題であることを示す。
論文 参考訳(メタデータ) (2022-10-24T10:05:30Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - IAM: A Comprehensive and Large-Scale Dataset for Integrated Argument
Mining Tasks [59.457948080207174]
本稿では,一連の議論マイニングタスクに適用可能なIAMという,包括的で大規模なデータセットを提案する。
データセットの70k近い文は、引数特性に基づいて完全に注釈付けされている。
議論準備プロセスに関連する2つの新しい統合された議論マイニングタスクを提案する。(1) 姿勢分類付きクレーム抽出(CESC)と(2) クレーム・エビデンス・ペア抽出(CEPE)である。
論文 参考訳(メタデータ) (2022-03-23T08:07:32Z) - Team Enigma at ArgMining-EMNLP 2021: Leveraging Pre-trained Language
Models for Key Point Matching [0.0]
本稿では,ArgMining 2021におけるキーポイント分析共有タスクへのシステム記述について述べる。
入力(トピック、キーポイント、引数)から抽出した追加データや特徴を組み込んで、パフォーマンスを向上させるとともに、事前訓練された言語モデルの既存の状態を活用しました。
評価フェーズでは,mAP厳格化,mAP緩和スコアが0.872,0.966となり,リーダーボードでは5位となった。
論文 参考訳(メタデータ) (2021-10-24T07:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。