論文の概要: Humor@IITK at SemEval-2021 Task 7: Large Language Models for Quantifying
Humor and Offensiveness
- arxiv url: http://arxiv.org/abs/2104.00933v1
- Date: Fri, 2 Apr 2021 08:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:55:32.616942
- Title: Humor@IITK at SemEval-2021 Task 7: Large Language Models for Quantifying
Humor and Offensiveness
- Title(参考訳): Humor@IITK at SemEval-2021 Task 7: Large Language Models for Quantifying Humor and Offensiveness (英語)
- Authors: Aishwarya Gupta, Avik Pal, Bholeshwar Khurana, Lakshay Tyagi, Ashutosh
Modi
- Abstract要約: 本稿では,大きなニューラルモデルとそのアンサンブルがユーモア/オフィス検出と評価に関連する複雑さを捕捉できるかどうかを検討する。
SemEval-2021 Task 7: HaHackathonによる実験により,このようなモデルを用いて合理的なユーモアと犯罪検知システムを開発できることが判明した。
- 参考スコア(独自算出の注目度): 2.251416625953577
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humor and Offense are highly subjective due to multiple word senses, cultural
knowledge, and pragmatic competence. Hence, accurately detecting humorous and
offensive texts has several compelling use cases in Recommendation Systems and
Personalized Content Moderation. However, due to the lack of an extensive
labeled dataset, most prior works in this domain haven't explored large neural
models for subjective humor understanding. This paper explores whether large
neural models and their ensembles can capture the intricacies associated with
humor/offense detection and rating. Our experiments on the SemEval-2021 Task 7:
HaHackathon show that we can develop reasonable humor and offense detection
systems with such models. Our models are ranked third in subtask 1b and
consistently ranked around the top 33% of the leaderboard for the remaining
subtasks.
- Abstract(参考訳): ユーモアとオフセンスは、複数の単語感覚、文化知識、実践的な能力によって非常に主観的である。
したがって、ユーモラスかつ攻撃的なテキストを正確に検出することは、レコメンデーションシステムやパーソナライズドコンテンツモデレーションにおいていくつかの魅力的なユースケースを持つ。
しかしながら、広範なラベル付きデータセットがないため、この分野のほとんどの先行研究は、主観的ユーモア理解のための大規模ニューラルネットワークを探求していない。
本稿では,大規模ニューラルモデルとそのアンサンブルが,ユーモラス/オッサン検出と評価に関連する複雑さを捉えることができるかを検討する。
SemEval-2021 Task 7: HaHackathonによる実験により,このようなモデルを用いて合理的なユーモアと犯罪検知システムを開発できることが判明した。
我々のモデルはサブタスク1bで3位、残りのサブタスクのリーダーボードの上位33%に一貫してランクインしている。
関連論文リスト
- Is AI fun? HumorDB: a curated dataset and benchmark to investigate graphical humor [8.75275650545552]
HumorDBは、視覚的ユーモア理解を促進するために特別に設計された、イメージのみのデータセットである。
このデータセットは、バイナリ分類、レンジ回帰、ペアワイズ比較タスクによる評価を可能にする。
HumorDBは、強力な大規模マルチモーダルモデルの貴重なベンチマークとしての可能性を示している。
論文 参考訳(メタデータ) (2024-06-19T13:51:40Z) - Getting Serious about Humor: Crafting Humor Datasets with Unfunny Large Language Models [27.936545041302377]
大規模言語モデル(LLM)は、テキストを編集することでユーモア検出のための合成データを生成することができる。
我々は、既存の人間のデータセット上でLLMをベンチマークし、現在のLLMは、ジョークを「不快に」する印象的な能力を示すことを示す。
我々は、GPT-4の合成データがバイリンガルアノテータによって高度に評価されているという、コード混成のイングリッシュ・ヒンディー語ユーモアデータセットにアプローチを拡張した。
論文 参考訳(メタデータ) (2024-02-23T02:58:12Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - Do Androids Laugh at Electric Sheep? Humor "Understanding" Benchmarks
from The New Yorker Caption Contest [70.40189243067857]
大きめのニューラルネットワークがジョークを生成できるようになったが、本当にユーモアを「理解」しているのだろうか?
私たちは、New Yorker Cartoon Caption Contestから派生した3つのタスクでAIモデルに挑戦します。
どちらのモデルも3つのタスクすべてで苦労しています。
論文 参考訳(メタデータ) (2022-09-13T20:54:00Z) - RuMedBench: A Russian Medical Language Understanding Benchmark [58.99199480170909]
本稿では,複数のタスクタイプをカバーするオープンなロシア語医療言語理解ベンチマークについて述べる。
我々は、新しいタスクのための統一されたフォーマットラベリング、データ分割、評価メトリクスを作成します。
シングルナンバーメトリックは、ベンチマークに対処するモデルの能力を表す。
論文 参考訳(メタデータ) (2022-01-17T16:23:33Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - MagicPai at SemEval-2021 Task 7: Method for Detecting and Rating Humor
Based on Multi-Task Adversarial Training [4.691435917434472]
本稿では,MagicPaiによるSemEval 2021 Task 7, HaHackathon: Detecting and Rating Humor and Offenseのシステムについて述べる。
この課題は、テキストがユーモラスか、いかにユーモラスかを検出することである。
主に、逆例に基づくマルチタスク学習モデルであるソリューションを紹介します。
論文 参考訳(メタデータ) (2021-04-21T03:23:02Z) - Uncertainty and Surprisal Jointly Deliver the Punchline: Exploiting
Incongruity-Based Features for Humor Recognition [0.6445605125467573]
ジョークを2つの異なるコンポーネントに分割します。セットアップとパンチラインです。
ユーモアの不整合理論に触発され、セマンティック不確実性を生み出す部分としてセットをモデル化する。
ますます強力な言語モデルによって、私たちはGPT-2言語モデルにパンチラインとともにセットアップをフィードすることができた。
論文 参考訳(メタデータ) (2020-12-22T13:48:09Z) - Dutch Humor Detection by Generating Negative Examples [5.888646114353371]
覚醒検出は通常二分分類タスクとしてモデル化され、与えられたテキストがジョークか他のタイプのテキストかを予測するように訓練される。
本稿では,本来のジョークデータセットを模倣するテキスト生成アルゴリズムを提案し,学習アルゴリズムの難易度を高める。
古典的ニューラルネットワークアプローチのユーモア検出能力と,最先端のオランダ語モデルであるRobBERTとの比較を行った。
論文 参考訳(メタデータ) (2020-10-26T15:15:10Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。