論文の概要: SemEval-2021 Task 4: Reading Comprehension of Abstract Meaning
- arxiv url: http://arxiv.org/abs/2105.14879v2
- Date: Tue, 1 Jun 2021 10:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 08:24:41.238499
- Title: SemEval-2021 Task 4: Reading Comprehension of Abstract Meaning
- Title(参考訳): semeval-2021タスク4 : 抽象的意味の理解
- Authors: Boyuan Zheng, Xiaoyu Yang, Yu-Ping Ruan, Zhenhua Ling, Quan Liu, Si
Wei, Xiaodan Zhu
- Abstract要約: 本稿では,SemEval-2021共有タスクについて紹介する。4: Reading of Abstract Meaning (ReCAM)。
パスとそれに対応する質問が与えられた場合、参加者システムは、抽象概念の5つの候補から正しい回答を選択することが期待される。
Subtask 1は、物理的な世界で直接認識できない概念を、システムがいかにうまくモデル化できるかを評価することを目的としている。
Subtask 2は、ハイパーニム階層にある非特異な概念を解釈するモデルの能力に焦点を当てている。
Subtask 3は、2種類の抽象性に対するモデルの一般化可能性に関する洞察を提供することを目的としている。
- 参考スコア(独自算出の注目度): 47.49596196559958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the SemEval-2021 shared task 4: Reading Comprehension
of Abstract Meaning (ReCAM). This shared task is designed to help evaluate the
ability of machines in representing and understanding abstract concepts. Given
a passage and the corresponding question, a participating system is expected to
choose the correct answer from five candidates of abstract concepts in a
cloze-style machine reading comprehension setup. Based on two typical
definitions of abstractness, i.e., the imperceptibility and nonspecificity, our
task provides three subtasks to evaluate the participating models.
Specifically, Subtask 1 aims to evaluate how well a system can model concepts
that cannot be directly perceived in the physical world. Subtask 2 focuses on
models' ability in comprehending nonspecific concepts located high in a
hypernym hierarchy given the context of a passage. Subtask 3 aims to provide
some insights into models' generalizability over the two types of abstractness.
During the SemEval-2021 official evaluation period, we received 23 submissions
to Subtask 1 and 28 to Subtask 2. The participating teams additionally made 29
submissions to Subtask 3. The leaderboard and competition website can be found
at https://competitions.codalab.org/competitions/26153. The data and baseline
code are available at
https://github.com/boyuanzheng010/SemEval2021-Reading-Comprehension-of-Abstract-Meaning.
- Abstract(参考訳): 本稿では, semeval-2021 共通タスク4: read comprehension of abstract meaning (recam) を紹介する。
この共有タスクは抽象概念を表現・理解する機械の能力を評価するために設計されている。
質問文とそれに対応する質問文が与えられた場合、参加システムは5つの抽象概念候補の中から正しい回答を選択することが期待される。
抽象性の2つの典型的な定義、すなわち非受容性と非特異性に基づいて、我々のタスクは参加モデルを評価するための3つのサブタスクを提供する。
特に、subtask 1は、システムが物理的世界で直接知覚できない概念をいかにうまくモデル化できるかを評価することを目的としている。
Subtask 2は、パスの文脈から、ハイパーネム階層にある非特異な概念を解釈するモデルの能力に焦点を当てている。
Subtask 3は、2種類の抽象性に対するモデルの一般化可能性に関する洞察を提供することを目的としている。
SemEval-2021 の公式評価期間中に,Subtask 1 に 23 件,Subtask 2 に 28 件を提出した。
参加チームはさらに29件をSubtask 3に提出した。
leaderboard and competitionのウェブサイトはhttps://competitions.codalab.org/competitions/26153にある。
データとベースラインコードはhttps://github.com/boyuanzheng010/SemEval2021-Reading-Comprehension-of-Abstract-Meaningで入手できる。
関連論文リスト
- Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Overview of the BioLaySumm 2023 Shared Task on Lay Summarization of
Biomedical Research Articles [47.04555835353173]
本稿では,ACL 2023のBioNLPワークショップで開催されているバイオメディカルリサーチ記事のレイ要約(BioLaySumm)における共有タスクの結果について述べる。
この共有タスクの目的は、"遅延要約"を生成することができる抽象的な要約モデルを開発することである。
総合的な結果に加えて,BioLaySumm共有タスクのセットアップと洞察についても報告した。
論文 参考訳(メタデータ) (2023-09-29T15:43:42Z) - A Unified Framework for Multi-intent Spoken Language Understanding with
prompting [14.17726194025463]
Prompt-based Spoken Language Understanding (PromptSLU) フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することにより、IDとSFが完成する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-07T05:58:05Z) - IIE-NLP-Eyas at SemEval-2021 Task 4: Enhancing PLM for ReCAM with
Special Tokens, Re-Ranking, Siamese Encoders and Back Translation [8.971288666318719]
本稿では,SemEval-2021 Task 4: Reading of Abstract Meaningの3つのサブタスクについて紹介する。
バックボーンモデル(RoBERTa)に適応した多くの単純かつ効果的なアプローチをうまく設計する。
実験結果から,本手法はベースラインシステムと比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-02-25T10:51:48Z) - What Makes a Good Summary? Reconsidering the Focus of Automatic
Summarization [49.600619575148706]
フィールドの現在の焦点は、参加者の希望と完全に一致していないことがわかります。
以上の結果から,自動要約のより広い視点を取り入れることが重要であると論じる。
論文 参考訳(メタデータ) (2020-12-14T15:12:35Z) - SemEval-2020 Task 5: Counterfactual Recognition [36.38097292055921]
Subtask-1は、ある文が偽造文であるか否かを判定することを目的としている。
Subtask-2は、該当するシステムに対して、所定の偽造声明を抽出することを要求する。
論文 参考訳(メタデータ) (2020-08-02T20:32:19Z) - SemEval-2020 Task 4: Commonsense Validation and Explanation [24.389998904122244]
SemEval-2020 Task 4, Commonsense Validation and Explanation (ComVE)には3つのサブタスクが含まれている。
我々は,人間にとって理にかなう自然言語文と,そうでないものとを区別できるかどうかを評価することを目的とする。
Subtask A と Subtask B では、上位のシステムのパフォーマンスは人間に近い。
論文 参考訳(メタデータ) (2020-07-01T04:41:05Z) - Document Modeling with Graph Attention Networks for Multi-grained
Machine Reading Comprehension [127.3341842928421]
Natural Questionsは、新しい挑戦的な機械読解ベンチマークである。
解答は2つあり、長解(典型的には1段落)と短解(長解の内にある1つ以上の実体)である。
既存の方法は、これらの2つのサブタスクをトレーニング中に個別に扱い、依存関係を無視します。
本稿では,文書を階層的にモデル化する多層機械読解フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-12T14:20:09Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。