論文の概要: Overview of ImageArg-2023: The First Shared Task in Multimodal Argument
Mining
- arxiv url: http://arxiv.org/abs/2310.12172v1
- Date: Sun, 15 Oct 2023 04:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 18:39:46.117790
- Title: Overview of ImageArg-2023: The First Shared Task in Multimodal Argument
Mining
- Title(参考訳): ImageArg-2023:マルチモーダル・引数マイニングにおける最初の共有タスクの概要
- Authors: Zhexiong Liu, Mohamed Elarby, Yang Zhong, Diane Litman
- Abstract要約: 本稿では,EMNLP 2023の10th Workshop on Argument Miningと共同で,ImageArg共有タスクの概要を紹介する。
共有タスクは,(1)Subtask-A:Argument Stance Classification,(2)Subtask-B: Image Persuasiveness Classificationの2つのサブタスクからなる。
Subtask-Aの最高スコアは0.8647、Subtask-Bの最高スコアは0.5561である。
- 参考スコア(独自算出の注目度): 7.2817814896721975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an overview of the ImageArg shared task, the first
multimodal Argument Mining shared task co-located with the 10th Workshop on
Argument Mining at EMNLP 2023. The shared task comprises two classification
subtasks - (1) Subtask-A: Argument Stance Classification; (2) Subtask-B: Image
Persuasiveness Classification. The former determines the stance of a tweet
containing an image and a piece of text toward a controversial topic (e.g., gun
control and abortion). The latter determines whether the image makes the tweet
text more persuasive. The shared task received 31 submissions for Subtask-A and
21 submissions for Subtask-B from 9 different teams across 6 countries. The top
submission in Subtask-A achieved an F1-score of 0.8647 while the best
submission in Subtask-B achieved an F1-score of 0.5561.
- Abstract(参考訳): 本稿では,第10回Argument Mining on EMNLP 2023ワークショップと共同で,最初のマルチモーダルなArgument Mining共有タスクであるImageArg共有タスクの概要を紹介する。
共有タスクは,(1)Subtask-A:Argument Stance Classification,(2)Subtask-B: Image Persuasiveness Classificationの2つのサブタスクからなる。
前者は、物議を醸す話題(銃規制や中絶など)に向けて、画像とテキストを含むツイートのスタンスを決定する。
後者は、画像がツイートテキストをより説得力のあるものにするかどうかを決定する。
共有タスクは6カ国9チームからSubtask-A申請31件、Subtask-B申請21件を受け取った。
subtask-a の上位は 0.8647 の f1-score を達成し、subtask-b の上位は 0.5561 の f1-score を達成した。
関連論文リスト
- SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - MasonPerplexity at Multimodal Hate Speech Event Detection 2024: Hate
Speech and Target Detection Using Transformer Ensembles [6.2696956160552455]
本稿では,EACL 2024のケース2024におけるマルチモーダル・ヘイト・スピーチ・イベント検出における共有タスクに対するMasonPerplexityの提出について述べる。
サブタスクAにはXLM-roBERTa-largeモデル、サブタスクBにはXLM-roBERTa-base、BERTweet-large、BERT-baseを組み合わせたアンサンブルアプローチを用いる。
論文 参考訳(メタデータ) (2024-02-03T00:23:36Z) - CL-UZH at SemEval-2023 Task 10: Sexism Detection through Incremental
Fine-Tuning and Multi-Task Learning with Label Descriptions [0.0]
SemEval shared task textitTowards Explainable Detection of Online Sexism (EDOS 2023)は、英語のソーシャルメディア投稿で性差別を検出することを目的としている。
本稿では,3つのサブタスクすべてに対して,関連するタスクを微調整したマルチタスクモデルに基づく提案システムを提案する。
我々は、各タスクをバイナリペアテキスト分類として定式化し、入力テキストとともにデータセットとラベル記述が与えられるマルチタスク学習を実装した。
論文 参考訳(メタデータ) (2023-06-06T17:59:49Z) - Multimodal Subtask Graph Generation from Instructional Videos [51.96856868195961]
実世界のタスクは複数の相互依存サブタスクから構成される。
本研究では,タスクを記述する指導ビデオから,そのようなサブタスク間の因果関係をモデル化することを目的とする。
マルチモーダルなサブタスクグラフ生成(MSG2)を提案する。これは、ノイズの多いWebビデオからタスクに関連するタスクのサブタスク間の依存性を定義するサブタスクグラフを構築するアプローチである。
論文 参考訳(メタデータ) (2023-02-17T03:41:38Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - Multitask Vision-Language Prompt Tuning [103.5967011236282]
マルチタスク視覚言語プロンプトチューニング(MV)を提案する。
MVはクロスタスクの知識を視覚言語モデルの迅速なチューニングに取り入れている。
20個の視覚タスクの結果、提案手法は全ての単一タスクのベースライン・プロンプト・チューニング法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T18:41:44Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - CompositeTasking: Understanding Images by Spatial Composition of Tasks [85.95743368954233]
CompositeTaskingは、複数の空間分散タスクの融合である。
提案するネットワークは,画像のペアと画素単位の高密度なタスクのセットを入力として取り,各ピクセルに対するタスク関連予測を行う。
マルチタスクのためのコンパクトなネットワークを提供するだけでなく、タスク編集も可能です。
論文 参考訳(メタデータ) (2020-12-16T15:47:02Z) - NADI 2020: The First Nuanced Arabic Dialect Identification Shared Task [18.23153068720659]
第1回Nuanced Arabic Dialect Identification Shared Task(NADI)の結果と結果について述べる。
共有タスクのデータは、アラブ21カ国から合計100か国をカバーし、Twitterドメインから収集されている。
NADIは、サブカントリーレベルで自然に発生する粒度の細かい方言テキストをターゲットにした最初の共有タスクである。
論文 参考訳(メタデータ) (2020-10-21T22:14:28Z) - BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual
statements with deep pre-trained language representation models [6.853018135783218]
本稿では,BUT-FITによるSemEval-2020 Task 5: Modelling Causal Reasoning in Language: Detecting Counterfactualsについて述べる。
課題は、ある文が偽物を含むかどうかを検出することである。
どちらのサブタスクでも,RoBERTa LRMが最善を尽くすことがわかった。
論文 参考訳(メタデータ) (2020-07-28T11:16:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。