論文の概要: SemEval-2021 Task 6: Detection of Persuasion Techniques in Texts and
Images
- arxiv url: http://arxiv.org/abs/2105.09284v1
- Date: Sun, 25 Apr 2021 05:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 18:29:56.930433
- Title: SemEval-2021 Task 6: Detection of Persuasion Techniques in Texts and
Images
- Title(参考訳): semeval-2021タスク6:テキストと画像における説得技術の検出
- Authors: Dimitar Dimitrov, Bishr Bin Ali, Shaden Shaar, Firoj Alam, Fabrizio
Silvestri, Hamed Firooz, Preslav Nakov, Giovanni Da San Martino
- Abstract要約: 本稿では,データ,ガイドライン,評価設定,結果,参加システムについて述べる。
課題はミームに焦点をあて, (i) テキスト中のテクニックの検出, (ii) テクニックの使用箇所のテキストスパンの検出, (iii) ミーム全体のテクニック検出という3つのサブタスクを持っていた。
- 参考スコア(独自算出の注目度): 25.06337963879228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe SemEval-2021 task 6 on Detection of Persuasion Techniques in
Texts and Images: the data, the annotation guidelines, the evaluation setup,
the results, and the participating systems. The task focused on memes and had
three subtasks: (i) detecting the techniques in the text, (ii) detecting the
text spans where the techniques are used, and (iii) detecting techniques in the
entire meme, i.e., both in the text and in the image. It was a popular task,
attracting 71 registrations, and 22 teams that eventually made an official
submission on the test set. The evaluation results for the third subtask
confirmed the importance of both modalities, the text and the image. Moreover,
some teams reported benefits when not just combining the two modalities, e.g.,
by using early or late fusion, but rather modeling the interaction between them
in a joint model.
- Abstract(参考訳): 本稿では,SemEval-2021 Task 6 on Detection of Persuasion Techniques in Texts and Images: the data, the annotations guidelines, the evaluation setup, the results, and the member systemについて述べる。
タスクはミームに焦点をあて、(i)テキスト中のテクニックの検出、(ii)テクニックが使われているテキストスパンの検出、(iii)ミーム全体、すなわちテキストと画像の両方のテクニックの3つのサブタスクを持っていた。
71の登録と22のチームが参加し、最終的にテストセットへの公式提出が行われた。
第3サブタスクの評価結果は、モダリティ、テキスト、画像の両方の重要性を確認した。
さらに、いくつかのチームは、早期融合や後期融合といった2つのモダリティを結合するだけでなく、両者の相互作用をジョイントモデルでモデル化することで、利点を報告した。
関連論文リスト
- Enhancing Scene Text Detectors with Realistic Text Image Synthesis Using
Diffusion Models [63.99110667987318]
DiffTextは、前景のテキストと背景の本質的な特徴をシームレスにブレンドするパイプラインです。
テキストインスタンスが少なくなると、生成したテキストイメージはテキスト検出を支援する他の合成データを一貫して上回ります。
論文 参考訳(メタデータ) (2023-11-28T06:51:28Z) - ESTextSpotter: Towards Better Scene Text Spotting with Explicit Synergy
in Transformer [88.61312640540902]
明示的な構文に基づくテキストスポッティング変換フレームワーク(ESTextSpotter)を紹介する。
本モデルは,1つのデコーダ内におけるテキスト検出と認識のための識別的,インタラクティブな特徴をモデル化することにより,明示的な相乗効果を実現する。
実験結果から,本モデルが従来の最先端手法よりも有意に優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-08-20T03:22:23Z) - What You See is What You Read? Improving Text-Image Alignment Evaluation [28.722369586165108]
テキスト画像の自動アライメント評価法について検討する。
まず、テキスト・ツー・イメージと画像・ツー・テキスト生成タスクから複数のデータセットにまたがるSeeeTRUEを紹介します。
質問生成モデルと視覚的質問応答モデルに基づくパイプラインを含むパイプラインと、マルチモーダル事前学習モデルの微調整によるエンドツーエンドの分類手法を用いて、アライメントを決定するための2つの自動手法について述べる。
論文 参考訳(メタデータ) (2023-05-17T17:43:38Z) - Towards End-to-End Unified Scene Text Detection and Layout Analysis [60.68100769639923]
本稿では,シーンテキストの検出とレイアウト解析を統合化するタスクについて紹介する。
この新たな研究課題を実現するために、最初の階層的なシーンテキストデータセットが導入された。
また,シーンテキストを同時に検出し,テキストクラスタを統一的に形成する手法を提案する。
論文 参考訳(メタデータ) (2022-03-28T23:35:45Z) - Knowledge Mining with Scene Text for Fine-Grained Recognition [53.74297368412834]
本研究では,シーンテキスト画像の背景にある暗黙的な文脈知識をマイニングする,エンドツーエンドのトレーニング可能なネットワークを提案する。
我々は,KnowBertを用いて意味表現の関連知識を検索し,それを画像特徴と組み合わせ,きめ細かい分類を行う。
本手法は,3.72%のmAPと5.39%のmAPをそれぞれ上回っている。
論文 参考訳(メタデータ) (2022-03-27T05:54:00Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - DUET: Detection Utilizing Enhancement for Text in Scanned or Captured
Documents [1.4866448722906016]
提案手法は,テキスト検出だけでなく,ノイズ低減やテキスト領域の強調を行うように設計されている。
テキスト検出と強調のためにラベル付けされた文書画像の合成により,モデルのトレーニングデータを充実させる。
提案手法は,他のテキスト検出手法を上回る性能を有する実文書データセットで実証される。
論文 参考訳(メタデータ) (2021-06-10T07:08:31Z) - Volta at SemEval-2021 Task 6: Towards Detecting Persuasive Texts and
Images using Textual and Multimodal Ensemble [7.817598216459955]
そこで本研究では, BERT をベースとしたモデルに対して, 異なるモダリティで伝達学習手法を提案する。
57.0, 48.2, 52.1のF1スコアを対応するサブタスクで達成する。
論文 参考訳(メタデータ) (2021-06-01T05:41:03Z) - TRIE: End-to-End Text Reading and Information Extraction for Document
Understanding [56.1416883796342]
本稿では,統合されたエンドツーエンドのテキスト読解と情報抽出ネットワークを提案する。
テキスト読解のマルチモーダル視覚的特徴とテキスト的特徴は、情報抽出のために融合される。
提案手法は, 精度と効率の両面において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-05-27T01:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。