論文の概要: Saved You A Click: Automatically Answering Clickbait Titles
- arxiv url: http://arxiv.org/abs/2212.08196v1
- Date: Thu, 15 Dec 2022 23:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:12:33.951440
- Title: Saved You A Click: Automatically Answering Clickbait Titles
- Title(参考訳): クリックを保存:clickbaitのタイトルに自動的に返信する
- Authors: Oliver Johnson, Beicheng Lou, Janet Zhong, Andrey Kurenkov
- Abstract要約: ウェブサイトのテキストからクリックベイトフックの回答や説明を自動的に見つけるシステムを開発した。
我々は、'StopClickbait' FacebookページとRedditの'SavedYouAClick'サブフォーラムから抽出されたデータを用いて、抽出された質問・回答モデル(RoBERTa)と抽象的な質問・回答モデル(T5)を微調整する。
- 参考スコア(独自算出の注目度): 12.12386497045842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Often clickbait articles have a title that is phrased as a question or vague
teaser that entices the user to click on the link and read the article to find
the explanation. We developed a system that will automatically find the answer
or explanation of the clickbait hook from the website text so that the user
does not need to read through the text themselves. We fine-tune an extractive
question and answering model (RoBERTa) and an abstractive one (T5), using data
scraped from the 'StopClickbait' Facebook pages and Reddit's 'SavedYouAClick'
subforum. We find that both extractive and abstractive models improve
significantly after finetuning. We find that the extractive model performs
slightly better according to ROUGE scores, while the abstractive one has a
slight edge in terms of BERTscores.
- Abstract(参考訳): clickbaitの記事には、ユーザーがリンクをクリックして記事を読んで説明を見つけるように促す質問やあいまいなティーザーとしてフレーズされるタイトルがあることが多い。
ウェブサイトのテキストからクリックベイトフックの回答や説明を自動的に見つけて、ユーザが自分でテキストを読む必要がないようにするシステムを開発した。
我々は、'StopClickbait' FacebookページとRedditの'SavedYouAClick'サブフォーラムから抽出されたデータを用いて、抽出質問と回答モデル(RoBERTa)と抽象質問モデル(T5)を微調整する。
抽出モデルと抽象モデルの両方が微調整後に大幅に改善することがわかった。
抽出モデルはルージュのスコアによってわずかに良くなるのに対し、抽象モデルはベルトスコアの点ではわずかに劣っていることが分かる。
関連論文リスト
- Prompt-tuning for Clickbait Detection via Text Summarization [18.027598728494485]
クリックベイト(Clickbaits)は、ソーシャルな投稿や、クリック数を増やすためにユーザーを誘惑する偽ニュースの見出しだ。
既存のほとんどの手法は、クリックベイトを検出するために見出しと内容のセマンティックな類似性を計算する。
テキスト要約によるクリックベイト検出のプロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-17T09:39:02Z) - GSQA: An End-to-End Model for Generative Spoken Question Answering [54.418723701886115]
本稿では,システムに抽象的推論を強制するGSQA(Generative Spoken Question Answering)モデルを提案する。
本モデルでは, 抽出QAデータセットにおいて, 従来の抽出モデルよりも3%上回っている。
我々のGSQAモデルは、幅広い質問に一般化する可能性を示し、それによって、抽象的QAの音声質問応答能力をさらに拡張する。
論文 参考訳(メタデータ) (2023-12-15T13:33:18Z) - Bandits Meet Mechanism Design to Combat Clickbait in Online
Recommendation [50.469872635246176]
我々は,マルチアームバンディット問題の戦略的変種について検討し,これを戦略的クリックバンディット(Click-bandit)と呼ぶ。
このモデルは、推奨項目の選択がクリックスルー率とクリック後の報酬の両方に依存するオンラインレコメンデーションのアプリケーションによって動機付けられている。
論文 参考訳(メタデータ) (2023-11-27T09:19:01Z) - BanglaBait: Semi-Supervised Adversarial Approach for Clickbait Detection
on Bangla Clickbait Dataset [0.6008132390640294]
15,056個のラベル付きニュース記事と65,406個のラベル付きニュース記事を含むバングラクリックベイト検出データセットを構築した。
各記事は3人の専門言語学者によってラベル付けされ、記事のタイトル、ボディ、その他のメタデータが含まれている。
半監視世代適応ネットワーク(SS GANs)を用いて,事前学習したバングラ変圧器モデルを逆向きに微調整する。
論文 参考訳(メタデータ) (2023-11-10T17:38:46Z) - Clickbait Classification and Spoiling Using Natural Language Processing [2.66512000865131]
クリックベイトを3つのタイプのうちの1つ(タスク1)に分類し、クリックベイトを台無しにする(タスク2)という2つのタスクに取り組む。
タスク1では、最終スポイラー型を決定するために2つのバイナリ分類器を提案する。
タスク2では,質問応答モデルを用いてスポイラーのテキストのスパンを識別し,大言語モデル(LLM)を用いてスポイラーを生成する。
論文 参考訳(メタデータ) (2023-06-16T01:45:57Z) - Clickbait Spoiling via Question Answering and Passage Retrieval [25.257288432595477]
我々はクリックベイト腐敗の課題を紹介し,研究する。
クリックベイトはウェブページへのリンクを投稿し、好奇心を喚起してそのコンテンツを宣伝する。
我々の貢献は、必要なスポイラーの種類を分類し、適切なスポイラーを生成するアプローチである。
論文 参考訳(メタデータ) (2022-03-19T09:40:33Z) - WeClick: Weakly-Supervised Video Semantic Segmentation with Click
Annotations [64.52412111417019]
WeClick と呼ばれるクリックアノテーション付きビデオセマンティックセマンティックセマンティックパイプラインを提案する。
詳細なセマンティック情報はクリックによってキャプチャされないため、クリックラベルによる直接トレーニングはセグメンテーションの予測が不十分になる。
WeClickは最先端の手法より優れ、ベースラインよりも10.24%のmIoUで性能を向上し、リアルタイム実行を実現している。
論文 参考訳(メタデータ) (2021-07-07T09:12:46Z) - Reference-based Weak Supervision for Answer Sentence Selection using Web
Data [87.18646699292293]
完全自動大規模データパイプラインであるReference-based Weak Supervision (RWS)を紹介する。
RWSは豊富なWebデータから高品質な教師付き回答を抽出する。
我々の実験は、生成したデータが常にTANDAを支えていることを示している。
論文 参考訳(メタデータ) (2021-04-18T19:41:17Z) - Beyond User Self-Reported Likert Scale Ratings: A Comparison Model for
Automatic Dialog Evaluation [69.03658685761538]
オープンドメインダイアログシステム評価はダイアログ研究における最も重要な課題の1つである。
本稿では,自動評価モデルCMADEを提案する。
実験の結果,対話比較作業においてCMADEの精度は89.2%であった。
論文 参考訳(メタデータ) (2020-05-21T15:14:49Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Clickbait Detection using Multiple Categorization Techniques [6.396288020763144]
本稿では,クリックベイトとノンクリックベイトを分離するためのハイブリッド分類手法を提案する。
提案するハイブリッドモデルは, 個々の分類手法よりも堅牢で信頼性が高く, 効率的である。
論文 参考訳(メタデータ) (2020-03-29T07:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。