論文の概要: Humor@IITK at SemEval-2021 Task 7: Large Language Models for Quantifying
Humor and Offensiveness
- arxiv url: http://arxiv.org/abs/2104.00933v1
- Date: Fri, 2 Apr 2021 08:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:55:32.616942
- Title: Humor@IITK at SemEval-2021 Task 7: Large Language Models for Quantifying
Humor and Offensiveness
- Title(参考訳): Humor@IITK at SemEval-2021 Task 7: Large Language Models for Quantifying Humor and Offensiveness (英語)
- Authors: Aishwarya Gupta, Avik Pal, Bholeshwar Khurana, Lakshay Tyagi, Ashutosh
Modi
- Abstract要約: 本稿では,大きなニューラルモデルとそのアンサンブルがユーモア/オフィス検出と評価に関連する複雑さを捕捉できるかどうかを検討する。
SemEval-2021 Task 7: HaHackathonによる実験により,このようなモデルを用いて合理的なユーモアと犯罪検知システムを開発できることが判明した。
- 参考スコア(独自算出の注目度): 2.251416625953577
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humor and Offense are highly subjective due to multiple word senses, cultural
knowledge, and pragmatic competence. Hence, accurately detecting humorous and
offensive texts has several compelling use cases in Recommendation Systems and
Personalized Content Moderation. However, due to the lack of an extensive
labeled dataset, most prior works in this domain haven't explored large neural
models for subjective humor understanding. This paper explores whether large
neural models and their ensembles can capture the intricacies associated with
humor/offense detection and rating. Our experiments on the SemEval-2021 Task 7:
HaHackathon show that we can develop reasonable humor and offense detection
systems with such models. Our models are ranked third in subtask 1b and
consistently ranked around the top 33% of the leaderboard for the remaining
subtasks.
- Abstract(参考訳): ユーモアとオフセンスは、複数の単語感覚、文化知識、実践的な能力によって非常に主観的である。
したがって、ユーモラスかつ攻撃的なテキストを正確に検出することは、レコメンデーションシステムやパーソナライズドコンテンツモデレーションにおいていくつかの魅力的なユースケースを持つ。
しかしながら、広範なラベル付きデータセットがないため、この分野のほとんどの先行研究は、主観的ユーモア理解のための大規模ニューラルネットワークを探求していない。
本稿では,大規模ニューラルモデルとそのアンサンブルが,ユーモラス/オッサン検出と評価に関連する複雑さを捉えることができるかを検討する。
SemEval-2021 Task 7: HaHackathonによる実験により,このようなモデルを用いて合理的なユーモアと犯罪検知システムを開発できることが判明した。
我々のモデルはサブタスク1bで3位、残りのサブタスクのリーダーボードの上位33%に一貫してランクインしている。
関連論文リスト
- Getting Serious about Humor: Crafting Humor Datasets with Unfunny Large
Language Models [29.337443224744625]
大規模言語モデル(LLM)は、テキストを編集することでユーモア検出のための合成データを生成することができる。
我々は、既存の人間のデータセット上でLLMをベンチマークし、現在のLLMがジョークを解き放つ素晴らしい能力を示すことを示す。
我々は、GPT-4の合成データがバイリンガルアノテータによって高度に評価されているという、コード混成のイングリッシュ・ヒンディー語ユーモアデータセットにアプローチを拡張した。
論文 参考訳(メタデータ) (2024-02-23T02:58:12Z) - ExPUNations: Augmenting Puns with Keywords and Explanations [88.58174386894913]
我々は、キーワードの詳細なクラウドソースアノテーションで既存の句のデータセットを拡張する。
これは、パント専用の広範囲できめ細かなアノテーションを備えた最初のユーモアデータセットである。
句分類支援のための説明生成とキーワード条件付き句生成という2つのタスクを提案する。
論文 参考訳(メタデータ) (2022-10-24T18:12:02Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and
First Results [58.84838232259392]
ヒューモアは人間の感情と認知の重要な要素である。
ユーモア検出の現在の方法は、単にステージ化されたデータに基づいており、'現実世界'のアプリケーションには不十分である。
約11時間の録音を含むPassau-Spontaneous Football Coach Humourデータセットについて紹介する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - Do Androids Laugh at Electric Sheep? Humor "Understanding" Benchmarks
from The New Yorker Caption Contest [70.40189243067857]
大きめのニューラルネットワークがジョークを生成できるようになったが、本当にユーモアを「理解」しているのだろうか?
私たちは、New Yorker Cartoon Caption Contestから派生した3つのタスクでAIモデルに挑戦します。
どちらのモデルも3つのタスクすべてで苦労しています。
論文 参考訳(メタデータ) (2022-09-13T20:54:00Z) - RuMedBench: A Russian Medical Language Understanding Benchmark [58.99199480170909]
本稿では,複数のタスクタイプをカバーするオープンなロシア語医療言語理解ベンチマークについて述べる。
我々は、新しいタスクのための統一されたフォーマットラベリング、データ分割、評価メトリクスを作成します。
シングルナンバーメトリックは、ベンチマークに対処するモデルの能力を表す。
論文 参考訳(メタデータ) (2022-01-17T16:23:33Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - MagicPai at SemEval-2021 Task 7: Method for Detecting and Rating Humor
Based on Multi-Task Adversarial Training [4.691435917434472]
本稿では,MagicPaiによるSemEval 2021 Task 7, HaHackathon: Detecting and Rating Humor and Offenseのシステムについて述べる。
この課題は、テキストがユーモラスか、いかにユーモラスかを検出することである。
主に、逆例に基づくマルチタスク学習モデルであるソリューションを紹介します。
論文 参考訳(メタデータ) (2021-04-21T03:23:02Z) - Uncertainty and Surprisal Jointly Deliver the Punchline: Exploiting
Incongruity-Based Features for Humor Recognition [0.6445605125467573]
ジョークを2つの異なるコンポーネントに分割します。セットアップとパンチラインです。
ユーモアの不整合理論に触発され、セマンティック不確実性を生み出す部分としてセットをモデル化する。
ますます強力な言語モデルによって、私たちはGPT-2言語モデルにパンチラインとともにセットアップをフィードすることができた。
論文 参考訳(メタデータ) (2020-12-22T13:48:09Z) - Dutch Humor Detection by Generating Negative Examples [5.888646114353371]
覚醒検出は通常二分分類タスクとしてモデル化され、与えられたテキストがジョークか他のタイプのテキストかを予測するように訓練される。
本稿では,本来のジョークデータセットを模倣するテキスト生成アルゴリズムを提案し,学習アルゴリズムの難易度を高める。
古典的ニューラルネットワークアプローチのユーモア検出能力と,最先端のオランダ語モデルであるRobBERTとの比較を行った。
論文 参考訳(メタデータ) (2020-10-26T15:15:10Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z) - ColBERT: Using BERT Sentence Embedding in Parallel Neural Networks for
Computational Humor [0.0]
本稿では,ユーモアの一般的な言語理論に基づいて,短いテキストでユーモアを検出・評価するための新しいアプローチを提案する。
提案手法は,与えられたテキストの文を分離し,BERTモデルを用いて各テキストの埋め込みを生成する。
我々はこの論文に、20万の形式的な短文からなるユーモア検出のための新しいデータセットを添付した。
提案モデルでは, 一般モデル, 最先端モデルより優れるユーモア検出実験において, 0.982, 0.869のF1スコアを得た。
論文 参考訳(メタデータ) (2020-04-27T13:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。