論文の概要: SemEval-2020 Task 7: Assessing Humor in Edited News Headlines
- arxiv url: http://arxiv.org/abs/2008.00304v1
- Date: Sat, 1 Aug 2020 17:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:20:23.611462
- Title: SemEval-2020 Task 7: Assessing Humor in Edited News Headlines
- Title(参考訳): semeval-2020タスク7: 編集ニュース見出しにおけるユーモアの評価
- Authors: Nabil Hossain, John Krumm, Michael Gamon and Henry Kautz
- Abstract要約: 本稿では,SemEval-2020共有タスク"Assessing Humor in Edited News Headlines"について述べる。
タスクのデータセットにはニュースの見出しが含まれており、短い編集を施して面白くし、これらの編集された見出しの面白さはクラウドソーシングを使って評価された。
現在、このタスクは最も人気のある計算ユーモアタスクであり、最初のサブタスクで48チーム、2番目のタスクで31チームを集めている。
- 参考スコア(独自算出の注目度): 9.78014714425501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the SemEval-2020 shared task "Assessing Humor in Edited
News Headlines." The task's dataset contains news headlines in which short
edits were applied to make them funny, and the funniness of these edited
headlines was rated using crowdsourcing. This task includes two subtasks, the
first of which is to estimate the funniness of headlines on a humor scale in
the interval 0-3. The second subtask is to predict, for a pair of edited
versions of the same original headline, which is the funnier version. To date,
this task is the most popular shared computational humor task, attracting 48
teams for the first subtask and 31 teams for the second.
- Abstract(参考訳): 本稿では,SemEval-2020共有タスク"Assessing Humor in Edited News Headlines"について述べる。
タスクのデータセットにはニュースの見出しが含まれており、短い編集を施して面白くし、これらの編集された見出しの面白さはクラウドソーシングを使って評価された。
このタスクには2つのサブタスクが含まれており、その1つは、0-3間隔のユーモア尺度における見出しの面白さを推定することである。
第二のサブタスクは、同じオリジナルの見出しの2つの編集されたバージョンについて予測することである。
これまでのところ、このタスクは最も一般的な共有計算ユーモアタスクであり、最初のサブタスクで48チーム、1番目のタスクで31チームを惹きつける。
関連論文リスト
- SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - CREATIVESUMM: Shared Task on Automatic Summarization for Creative
Writing [90.58269243992318]
本稿では,複数の創作分野,すなわち文学テキスト,映画脚本,テレビ脚本を要約する作業について紹介する。
4つのサブタスクとその対応するデータセットを導入し、本、映画脚本、プライムタイムテレビ脚本、昼間のソープオペラ脚本の要約に焦点を当てた。
COING 2022でのCREATIVESUMMワークショップの一環として、共有タスクには合計18の応募が寄せられた。
論文 参考訳(メタデータ) (2022-11-10T21:31:03Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - NewsEdits: A News Article Revision Dataset and a Document-Level
Reasoning Challenge [122.37011526554403]
NewsEditsは、最初に公開されたニュースリビジョン履歴のデータセットである。
120万記事と、22以上の英語とフランス語の新聞ソースから460万バージョンを収録している。
論文 参考訳(メタデータ) (2022-06-14T18:47:13Z) - Nowruz at SemEval-2022 Task 7: Tackling Cloze Tests with Transformers
and Ordinal Regression [1.9078991171384017]
本稿では,チームがSemEval 2022 Task 7に参加したシステムについて概説する。
論文 参考訳(メタデータ) (2022-04-01T16:36:10Z) - SemEval-2021 Task 1: Lexical Complexity Prediction [5.833486905921455]
SemEval-2021 Task 1には2つのサブタスクがあり、サブタスク1は単一の単語に焦点を当て、サブタスク2はMWEに焦点を当てていた。
合計198チームが参加し、54チームがテストデータをSub-task 1に、37チームがSub-task 2に提出した。
論文 参考訳(メタデータ) (2021-06-01T13:22:36Z) - MagicPai at SemEval-2021 Task 7: Method for Detecting and Rating Humor
Based on Multi-Task Adversarial Training [4.691435917434472]
本稿では,MagicPaiによるSemEval 2021 Task 7, HaHackathon: Detecting and Rating Humor and Offenseのシステムについて述べる。
この課題は、テキストがユーモラスか、いかにユーモラスかを検出することである。
主に、逆例に基づくマルチタスク学習モデルであるソリューションを紹介します。
論文 参考訳(メタデータ) (2021-04-21T03:23:02Z) - Humor@IITK at SemEval-2021 Task 7: Large Language Models for Quantifying
Humor and Offensiveness [2.251416625953577]
本稿では,大きなニューラルモデルとそのアンサンブルがユーモア/オフィス検出と評価に関連する複雑さを捕捉できるかどうかを検討する。
SemEval-2021 Task 7: HaHackathonによる実験により,このようなモデルを用いて合理的なユーモアと犯罪検知システムを開発できることが判明した。
論文 参考訳(メタデータ) (2021-04-02T08:22:02Z) - Duluth at SemEval-2020 Task 7: Using Surprise as a Key to Unlock
Humorous Headlines [1.8782241143922103]
ユーモアの不整合理論にインスパイアされた私たちは、編集された見出しのサプライズを捉えるために、対照的なアプローチを使用します。
公式評価では,49件中11件目で0.531件のRMSEが得られた。
論文 参考訳(メタデータ) (2020-09-06T18:34:54Z) - RUSSE'2020: Findings of the First Taxonomy Enrichment Task for the
Russian language [70.27072729280528]
本稿では,ロシア語の分類学的豊か化に関する最初の共有課題の結果について述べる。
16チームがこのタスクに参加し、半数以上が提供されたベースラインを上回った。
論文 参考訳(メタデータ) (2020-05-22T13:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。