論文の概要: Spoiler in a Textstack: How Much Can Transformers Help?
- arxiv url: http://arxiv.org/abs/2112.12913v1
- Date: Fri, 24 Dec 2021 02:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 14:46:09.671449
- Title: Spoiler in a Textstack: How Much Can Transformers Help?
- Title(参考訳): テキストスタックのスポイラー:トランスフォーマーはどの程度役に立つのか?
- Authors: Anna Wr\'oblewska, Pawe{\l} Rzepi\'nski, Sylwia Sysko-Roma\'nczuk
- Abstract要約: 本稿では、最新のディープラーニングの成果と手法を用いて、利用可能なテキストベースモデルタスクを微調整し、整理し、モデルの結果を解釈する方法について述べる。
そこで我々は,モデルの信頼性を評価し,その結果を説明するために,解釈可能性技術と尺度を用いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents our research regarding spoiler detection in reviews. In
this use case, we describe the method of fine-tuning and organizing the
available text-based model tasks with the latest deep learning achievements and
techniques to interpret the models' results.
Until now, spoiler research has been rarely described in the literature. We
tested the transfer learning approach and different latest transformer
architectures on two open datasets with annotated spoilers (ROC AUC above 81\%
on TV Tropes Movies dataset, and Goodreads dataset above 88\%). We also
collected data and assembled a new dataset with fine-grained annotations. To
that end, we employed interpretability techniques and measures to assess the
models' reliability and explain their results.
- Abstract(参考訳): 本稿では,レビューにおけるスポイラー検出に関する研究について述べる。
本稿では、利用可能なテキストベースのモデルタスクを微調整し、整理する手法について、最新のディープラーニングの成果とモデルの結果を解釈する手法について述べる。
これまで、スポイラー研究は文献にはほとんど記述されていない。
我々は,アノテート付きスポイラを備えた2つのオープンデータセット上で,転送学習アプローチと異なる最新のトランスフォーマーアーキテクチャをテストした(roc aucはtv tropes moviesデータセットで81\%,goodreadsデータセットは88\%)。
また、データを収集し、きめ細かいアノテーションで新しいデータセットを組み立てました。
そこで我々は,モデルの信頼性を評価し,その結果を説明するために,解釈可能性技術と尺度を用いた。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Mitigating Clickbait: An Approach to Spoiler Generation Using Multitask Learning [6.404122934568859]
本研究では,スポイラーを簡潔なテキスト応答として検出・分類・生成する新技術である「クリックベイトスポイリング」を紹介する。
マルチタスク学習フレームワークを活用することで,モデルの一般化能力は大幅に向上する。
本研究は,クリックベイト問題に対処するための高度なテキスト処理技術の可能性を強調した。
論文 参考訳(メタデータ) (2024-05-07T13:09:25Z) - MMoE: Robust Spoiler Detection with Multi-modal Information and Domain-aware Mixture-of-Experts [24.019670360653002]
MMoEはマルチモーダルネットワークであり、複数のモーダルからの情報を利用してロバストなスポイラー検出を容易にする。
MMoEは2つの広く使用されているスポイラー検出データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-08T12:42:04Z) - WikiDes: A Wikipedia-Based Dataset for Generating Short Descriptions
from Paragraphs [66.88232442007062]
ウィキデックスはウィキペディアの記事の短い記述を生成するデータセットである。
データセットは、6987のトピックに関する80万以上の英語サンプルで構成されている。
本論文は,ウィキペディアとウィキデータに多くの記述が欠落していることから,実際的な影響を示すものである。
論文 参考訳(メタデータ) (2022-09-27T01:28:02Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Efficient Few-Shot Fine-Tuning for Opinion Summarization [83.76460801568092]
抽象的な要約モデルは、典型的には大量のジェネリックテキストで事前訓練され、数万から数十万の注釈付きサンプルで微調整される。
アダプタをベースとした数ショット法では,ドメイン内の知識を容易に保存できることを示す。
この自己教師型アダプタの事前トレーニングにより,AmazonとYelpのデータセット上の2.0および1.3ROUGE-Lポイントの要約品質が向上することを示す。
論文 参考訳(メタデータ) (2022-05-04T16:38:37Z) - Spoiler Alert: Using Natural Language Processing to Detect Spoilers in
Book Reviews [0.0]
本稿では,カリフォルニア大学サンディエゴ校(UCSD)のGoodreads Spoilerデータセットを用いて,書評におけるスポイラー検出のためのNLP手法を提案する。
文レベルでスポイラー検出を行うために,LSTM,BERT,RoBERTa言語モデルを用いて検討した。
また,手工芸品を用いたにもかかわらず,LSTMモデルの結果はスポイラー検出においてUCSDチームの性能をわずかに上回ることができた。
論文 参考訳(メタデータ) (2021-02-07T18:54:27Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Learning to Summarize Passages: Mining Passage-Summary Pairs from
Wikipedia Revision Histories [110.54963847339775]
ウィキペディアページのリビジョン履歴をマイニングすることで,パス・トゥ・サマリーデータセットを自動構築する手法を提案する。
特に、本手法では、ページに追加される本体の通路と導入文を同時にマイニングする。
構築されたデータセットは、100万以上のパス・サマー・ペアを含む。
論文 参考訳(メタデータ) (2020-04-06T12:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。