論文の概要: SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual
Media
- arxiv url: http://arxiv.org/abs/2008.03274v1
- Date: Fri, 7 Aug 2020 17:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 00:36:15.265930
- Title: SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual
Media
- Title(参考訳): SemEval-2020 タスク10:ビジュアルメディアにおけるテキストの強調選択
- Authors: Amirreza Shirani, Franck Dernoncourt, Nedim Lipka, Paul Asente, Jose
Echevarria and Thamar Solorio
- Abstract要約: 本稿では,SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Media の主な成果とその結果を比較した。
この共有タスクの目的は、強調選択のための自動メソッドを設計することである。
タスクに送信されたシステムの解析は、BERTとRoBERTaが、トレーニング済みモデルの最も一般的な選択であることを示している。
- 参考スコア(独自算出の注目度): 50.29389719723529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present the main findings and compare the results of
SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Media. The
goal of this shared task is to design automatic methods for emphasis selection,
i.e. choosing candidates for emphasis in textual content to enable automated
design assistance in authoring. The main focus is on short text instances for
social media, with a variety of examples, from social media posts to
inspirational quotes. Participants were asked to model emphasis using plain
text with no additional context from the user or other design considerations.
SemEval-2020 Emphasis Selection shared task attracted 197 participants in the
early phase and a total of 31 teams made submissions to this task. The
highest-ranked submission achieved 0.823 Matchm score. The analysis of systems
submitted to the task indicates that BERT and RoBERTa were the most common
choice of pre-trained models used, and part of speech tag (POS) was the most
useful feature. Full results can be found on the task's website.
- Abstract(参考訳): 本稿では,SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Mediaについて,主な知見と結果を比較した。
この共有タスクの目的は、強調選択のための自動メソッド、すなわち、テキストコンテンツに強調する候補を選択することによって、オーサリングにおける自動設計支援を可能にすることである。
主な焦点はソーシャルメディアの短いテキストのインスタンスであり、ソーシャルメディアの投稿からインスピレーション的な引用まで様々な例がある。
参加者は、ユーザや他の設計上の考慮から、追加のコンテキストのないプレーンテキストを使用して強調をモデル化するように求められた。
semeval-2020 強調選択共有タスク 初期段階で197人が参加し、合計31チームがこのタスクに応募した。
最高成績は0.823マッチ。
タスクに送信されたシステムの解析は、BERTとRoBERTaが最も一般的な訓練済みモデルの選択であり、音声タグの一部(POS)が最も有用な特徴であることを示している。
完全な結果はタスクのWebサイトにある。
関連論文リスト
- SemEval 2024 -- Task 10: Emotion Discovery and Reasoning its Flip in
Conversation (EDiReF) [61.49972925493912]
SemEval-2024 Task 10は、コードミキシングされた対話における感情の識別に焦点を当てた共有タスクである。
このタスクは3つの異なるサブタスクから構成される - コードミックス対話のための会話における感情認識、コードミックス対話のための感情フリップ推論、および英語対話のための感情フリップ推論である。
このタスクには84人の参加者が参加し、各サブタスクのF1スコアは0.70、0.79、0.76に達した。
論文 参考訳(メタデータ) (2024-02-29T08:20:06Z) - Text2Topic: Multi-Label Text Classification System for Efficient Topic
Detection in User Generated Content with Zero-Shot Capabilities [2.7311827519141363]
マルチラベル分類性能の高いText to Topic(Text2Topic)を提案する。
Text2Topicはゼロショット予測をサポートし、ドメイン固有のテキスト埋め込みを生成し、プロダクションスケールのバッチ推論を可能にする。
このモデルは現実世界のストリーム処理プラットフォームにデプロイされ、92.9%のマイクロmAPで他のモデルより優れている。
論文 参考訳(メタデータ) (2023-10-23T11:33:24Z) - ICDAR 2023 Competition on Structured Text Extraction from Visually-Rich
Document Images [198.35937007558078]
大会は2022年12月30日に開かれ、2023年3月24日に閉幕した。
トラック1には35人の参加者と91人の有効な応募があり、トラック2には15人の参加者と26人の応募がある。
提案手法の性能によると, 複雑なシナリオやゼロショットシナリオにおいて, 期待される情報抽出性能にはまだ大きなギャップがあると考えられる。
論文 参考訳(メタデータ) (2023-06-05T22:20:52Z) - Controlled Text Reduction [15.102190738450092]
textitControlled Text Reduction をスタンドアロンタスクとして形式化する。
モデルでは、対象情報すべてと対象情報のみを含む一貫性のあるテキストを生成する必要がある。
論文 参考訳(メタデータ) (2022-10-24T17:59:03Z) - MIDAS at SemEval-2020 Task 10: Emphasis Selection using Label
Distribution Learning and Contextual Embeddings [46.973153861604416]
本稿では,文章による強調選択に関するSemEval 2020 - Task 10への提出について述べる。
我々は、この強調選択問題を、文脈埋め込みモデルで基礎となるテキストを表現するシーケンスラベリングタスクとしてアプローチする。
私たちの最高のパフォーマンスアーキテクチャは、さまざまなモデルの集合体で、全体的なマッチングスコアは0.783で、31チーム中15位です。
論文 参考訳(メタデータ) (2020-09-06T00:15:33Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - IITK at SemEval-2020 Task 10: Transformers for Emphasis Selection [8.352123313770552]
本稿では,SemEval-2020: Emphasis Selection for Written Text in Visual Media の第10章で提案される研究課題に対処するシステムについて述べる。
本稿では,テキストを入力として各単語に対応するエンド・ツー・エンドのモデルを提案し,強調すべき単語の確率を与える。
論文 参考訳(メタデータ) (2020-07-21T14:05:56Z) - Let Me Choose: From Verbal Context to Font Selection [50.293897197235296]
フォントの視覚的属性と典型的に適用されるテキストの言語的文脈との関係を学習することを目的としている。
我々は、クラウドソーシングを通じてラベル付けされたソーシャルメディア投稿や広告で、さまざまなトピックの例を含む、新しいデータセットを紹介した。
論文 参考訳(メタデータ) (2020-05-03T17:36:17Z) - CIRCE at SemEval-2020 Task 1: Ensembling Context-Free and
Context-Dependent Word Representations [0.0]
文脈に依存しない単語表現に基づいて予測を行うアンサンブルモデルを提案する。
その結果,(1)文脈に依存しない単語表現は強力で堅牢なベースラインであり,(2)文脈に依存した単語表現を得るために文分類の目的を利用でき,(3)これらの表現を組み合わせることで,一部のデータセットのパフォーマンスが向上し,他のデータセットのパフォーマンスが低下することがわかった。
論文 参考訳(メタデータ) (2020-04-30T13:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。