論文の概要: Yseop at SemEval-2020 Task 5: Cascaded BERT Language Model for
Counterfactual Statement Analysis
- arxiv url: http://arxiv.org/abs/2005.08519v2
- Date: Fri, 13 Nov 2020 17:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:43:25.732523
- Title: Yseop at SemEval-2020 Task 5: Cascaded BERT Language Model for
Counterfactual Statement Analysis
- Title(参考訳): SemEval-2020 Task 5: Cascaded BERT Language Model for Counterfactual Statement Analysis
- Authors: Hanna Abi Akl, Dominique Mariko, Estelle Labidurie
- Abstract要約: 我々は、分類タスクにBERTベースモデルを使用し、シーケンス識別タスクを処理するために、ハイブリッドBERTマルチ層パーセプトロンシステムを構築した。
本実験により, 構文的・意味的特徴の導入は, 分類タスクにおけるシステム改善にはほとんど寄与しないが, それらの特徴を線形入力として用いて, モデルのシーケンス決定能力を微調整することにより, 2次タスクにおいてBiLSTM-CRFのような他の類似の複雑なシステムよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore strategies to detect and evaluate counterfactual
sentences. We describe our system for SemEval-2020 Task 5: Modeling Causal
Reasoning in Language: Detecting Counterfactuals. We use a BERT base model for
the classification task and build a hybrid BERT Multi-Layer Perceptron system
to handle the sequence identification task. Our experiments show that while
introducing syntactic and semantic features does little in improving the system
in the classification task, using these types of features as cascaded linear
inputs to fine-tune the sequence-delimiting ability of the model ensures it
outperforms other similar-purpose complex systems like BiLSTM-CRF in the second
task. Our system achieves an F1 score of 85.00% in Task 1 and 83.90% in Task 2.
- Abstract(参考訳): 本稿では,偽文の検出と評価戦略について検討する。
本稿では,SemEval-2020 Task 5: Modeling Causal Reasoning in Language: Detecting Counterfactualsについて述べる。
分類タスクにはBERTベースモデルを使用し、シーケンス識別タスクを処理するためにハイブリッドBERTマルチ層パーセプトロンシステムを構築する。
本実験では,構文的・意味的特徴の導入は分類作業におけるシステム改善にほとんど寄与しないが,これらの特徴を逐次的線形入力として使用することで,モデルのシーケンス伝達能力が第2タスクにおいてbilstm-crfのような他の類似した複合システムよりも優れていることを示す。
本システムは第1タスクで85.00%,第2タスクで83.90%のF1スコアを達成する。
関連論文リスト
- Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Hybrid Rule-Neural Coreference Resolution System based on Actor-Critic
Learning [53.73316523766183]
コアレゾリューションシステムは2つの主要なタスクに取り組む必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクター・クリティカル・ラーニングに基づく複合ルール・ニューラル・コア参照解決システムを提案する。
論文 参考訳(メタデータ) (2022-12-20T08:55:47Z) - UU-Tax at SemEval-2022 Task 3: Improving the generalizability of
language models for taxonomy classification through data augmentation [0.0]
本稿では,SemEval-2022 Task 3 PreTENS: Presuposed Taxonomies Evaluation Neural Network Semanticsについて述べる。
タスクの目標は、文に含まれる名詞対の間の分類学的関係によって、ある文が受け入れられているか否かを識別することである。
より優れた分類のための言語モデルの堅牢性と一般化性を高める効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-10-07T07:41:28Z) - Segment-level Metric Learning for Few-shot Bioacoustic Event Detection [56.59107110017436]
本稿では,モデル最適化時の肯定的事象と否定的事象の両方を利用するセグメントレベルの数ショット学習フレームワークを提案する。
本システムでは,DCASE2022チャレンジタスク5(DCASE2022-T5)のF値62.73の検証を行い,ベースラインプロトタイプネットワーク34.02の性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2022-07-15T22:41:30Z) - DisCoDisCo at the DISRPT2021 Shared Task: A System for Discourse
Segmentation, Classification, and Connective Detection [4.371388370559826]
我々のシステムはDisCoDisCoと呼ばれ、コンテキスト化された単語の埋め込みを手作りの機能で強化する。
関係分類の結果は、新しい2021ベンチマークで強い性能を示している。
複数の事前学習されたトランスフォーマーベース言語モデルの部分評価は、Next Sentence Predictionタスクで事前学習されたモデルが関係分類に最適であることを示している。
論文 参考訳(メタデータ) (2021-09-20T18:11:05Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z) - Predicting Typological Features in WALS using Language Embeddings and
Conditional Probabilities: \'UFAL Submission to the SIGTYP 2020 Shared Task [1.4848029858256582]
我々は,WALSデータベースのみに基づいて,類型的特徴を予測可能な制約付きシステムを提案する。
テストデータの精度は70.7%に達し、まず共有タスクでランク付けします。
論文 参考訳(メタデータ) (2020-10-08T12:05:48Z) - DSC IIT-ISM at SemEval-2020 Task 6: Boosting BERT with Dependencies for
Definition Extraction [9.646922337783133]
定義抽出における変換器(BERT)からの双方向表現の性能について検討する。
本稿では,BERT と Text Level Graph Convolutional Network の結合モデルを提案する。
論文 参考訳(メタデータ) (2020-09-17T09:48:59Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - syrapropa at SemEval-2020 Task 11: BERT-based Models Design For
Propagandistic Technique and Span Detection [2.0051855303186046]
まず,SpanBERTに基づくSpan Identification(SI)モデルを構築し,より深いモデルと文レベルの表現による検出を容易にする。
次に、テクニック分類(TC)のためのハイブリッドモデルを開発する。
ハイブリッドモデルは、2つのBERTモデルと異なるトレーニング方法、特徴ベースのロジスティック回帰モデルを含む3つのサブモデルで構成されている。
論文 参考訳(メタデータ) (2020-08-24T02:15:29Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。