論文の概要: QMUL-SDS @ SardiStance: Leveraging Network Interactions to Boost
Performance on Stance Detection using Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2011.01181v3
- Date: Fri, 6 Nov 2020 17:28:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:06:56.263192
- Title: QMUL-SDS @ SardiStance: Leveraging Network Interactions to Boost
Performance on Stance Detection using Knowledge Graphs
- Title(参考訳): QMUL-SDS @ SardiStance: ネットワークインタラクションを活用して知識グラフを用いたスタンス検出のパフォーマンス向上
- Authors: Rabab Alkhalifa, Arkaitz Zubiaga
- Abstract要約: 本稿では,タスクAとタスクBのアーキテクチャについて述べる。
タスクBでは6位(f-avg 0.709)です。
最適実験により, (f-avg 0.573) から (f-avg 0.733) まで性能が向上した。
- 参考スコア(独自算出の注目度): 16.39344929765961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our submission to the SardiStance 2020 shared task,
describing the architecture used for Task A and Task B. While our submission
for Task A did not exceed the baseline, retraining our model using all the
training tweets, showed promising results leading to (f-avg 0.601) using
bidirectional LSTM with BERT multilingual embedding for Task A. For our
submission for Task B, we ranked 6th (f-avg 0.709). With further investigation,
our best experimented settings increased performance from (f-avg 0.573) to
(f-avg 0.733) with same architecture and parameter settings and after only
incorporating social interaction features -- highlighting the impact of social
interaction on the model's performance.
- Abstract(参考訳): 本稿では,タスクAとタスクBに使用されるアーキテクチャを記述したSardiStance 2020共有タスクを提示する。タスクAの提出はベースラインを超えず,トレーニングツイートをすべて使用してモデルをトレーニングし,有望な結果(f-avg 0.601)を示した上で,タスクAの双方向LSTMとBERT多言語埋め込みを用いた。タスクBの提出については,第6位(f-avg 0.709)にランク付けした。
さらなる調査により、最高の実験により、(f-avg 0.573)から(f-avg 0.733)まで、同じアーキテクチャとパラメータ設定で、社会的相互作用機能のみを組み込んだ結果、モデルの性能に対する社会的相互作用の影響が強調された。
関連論文リスト
- FamiCom: Further Demystifying Prompts for Language Models with Task-Agnostic Performance Estimation [73.454943870226]
言語モデルは、コンテキスト内学習能力に優れています。
本稿では,タスク非依存のパフォーマンス推定のためのより包括的な尺度であるFamiComを提案する。
論文 参考訳(メタデータ) (2024-06-17T06:14:55Z) - Instance Smoothed Contrastive Learning for Unsupervised Sentence
Embedding [16.598732694215137]
特徴空間における埋め込みの境界を円滑にするためのIS-CSEを提案する。
我々は,標準的な意味テキスト類似性(STS)タスクについて評価し,平均78.30%,79.47%,77.73%,79.42%のスピアマン相関を達成した。
論文 参考訳(メタデータ) (2023-05-12T12:46:13Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis [84.12658971655253]
本稿では,マルチモーダルタスクのためのBERTベースのアーキテクチャであるAdapted Multimodal BERTを提案する。
アダプタはタスクの事前訓練された言語モデルを手動で調整し、融合層はタスク固有の層ワイドな音声視覚情報とテキストBERT表現を融合させる。
われわれは、このアプローチがより効率的なモデルにつながり、微調整されたモデルよりも優れ、ノイズの入力に堅牢であることを示した。
論文 参考訳(メタデータ) (2022-12-01T17:31:42Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - HaT5: Hate Language Identification using Text-to-Text Transfer
Transformer [1.2532400738980594]
比較的多様な2つのデータセットから5つのタスクにまたがる最先端技術(SoTA)アーキテクチャT5の性能について検討する。
性能向上のために,自己回帰モデルを用いてトレーニングデータを増強する。
サンプルの小さなセットを使用することで、データアノテーションが貧弱であることの難しさを明らかにします。
論文 参考訳(メタデータ) (2022-02-11T15:21:27Z) - Identifying Suitable Tasks for Inductive Transfer Through the Analysis
of Feature Attributions [78.55044112903148]
我々は、単一タスクモデル間のニューラルネットワークアクティベーションの比較を通じて、タスクペアが相補的になるかどうかを予測するために、説明可能性技術を使用する。
提案手法により,TREC-IS 2020-Aデータセットでは,正のクラスF1の0.034の削減に留まらず,最大83.5%のトレーニング時間を短縮することが可能である。
論文 参考訳(メタデータ) (2022-02-02T15:51:07Z) - Finetuning Transformer Models to Build ASAG System [0.0]
この研究の目的はMLベースの短解階調システムを開発することである。
私はSTSベンチマークデータセットに事前トレーニングされたRoberta Large Modelの微調整を利用するシステムを構築しました。
システムの性能をMohler拡張データセットとSciEntsBankデータセットで評価した。
論文 参考訳(メタデータ) (2021-09-25T07:21:04Z) - UPB at SemEval-2021 Task 7: Adversarial Multi-Task Learning for
Detecting and Rating Humor and Offense [0.6404122934568858]
本稿では, 敵のマルチタスクネットワークであるAMTL-Humorを用いて, ユーモアや攻撃的テキストの検出と評価を行う。
私達の最もよいモデルはすべてのテストされた構成のアンサンブルから成り、95.66% F1スコアおよびタスク1aのための94.70%の正確さを達成します。
論文 参考訳(メタデータ) (2021-04-13T09:59:05Z) - LayoutLMv2: Multi-modal Pre-training for Visually-Rich Document
Understanding [49.941806975280045]
テキストとレイアウトの事前トレーニングは、視覚的に豊富な文書理解タスクで有効であることが証明されています。
テキスト,レイアウト,イメージをマルチモーダルフレームワークで事前学習することで,テキスト-bfLMv2を提示する。
論文 参考訳(メタデータ) (2020-12-29T13:01:52Z) - Gestalt: a Stacking Ensemble for SQuAD2.0 [0.0]
本稿では,文脈文中の質問に対する正しい回答を見つけ出し,提示する深層学習システムを提案する。
我々のゴールは、各アンサンブルで最高のモデルを上回る異種SQuAD2.0モデルのアンサンブルを学習することである。
論文 参考訳(メタデータ) (2020-04-02T08:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。