論文の概要: HonestBait: Forward References for Attractive but Faithful Headline
Generation
- arxiv url: http://arxiv.org/abs/2306.14828v1
- Date: Mon, 26 Jun 2023 16:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 12:38:31.346139
- Title: HonestBait: Forward References for Attractive but Faithful Headline
Generation
- Title(参考訳): HonestBait:Attractive but Faithful Headline Generationのフォワードリファレンス
- Authors: Chih-Yao Chen, Dennis Wu, Lun-Wei Ku
- Abstract要約: フォワード参照 (FR) は、クリックベイトによく使われる記述技法である。
自己検証プロセスは、急激な発明を避けるために訓練中に含まれる。
本稿では,疑似ニュースと疑似ニュースのペアを含む斬新なデータセットであるPANCO1について紹介する。
- 参考スコア(独自算出の注目度): 13.456581900511873
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Current methods for generating attractive headlines often learn directly from
data, which bases attractiveness on the number of user clicks and views.
Although clicks or views do reflect user interest, they can fail to reveal how
much interest is raised by the writing style and how much is due to the event
or topic itself. Also, such approaches can lead to harmful inventions by
over-exaggerating the content, aggravating the spread of false information. In
this work, we propose HonestBait, a novel framework for solving these issues
from another aspect: generating headlines using forward references (FRs), a
writing technique often used for clickbait. A self-verification process is
included during training to avoid spurious inventions. We begin with a
preliminary user study to understand how FRs affect user interest, after which
we present PANCO1, an innovative dataset containing pairs of fake news with
verified news for attractive but faithful news headline generation. Automatic
metrics and human evaluations show that our framework yields more attractive
results (+11.25% compared to human-written verified news headlines) while
maintaining high veracity, which helps promote real information to fight
against fake news.
- Abstract(参考訳): 魅力的な見出しを生成する現在の方法は、ユーザークリック数やビュー数に基づいて魅力的なデータから直接学習することが多い。
クリックやビューはユーザの関心を反映するが、書き込みスタイルによってどれだけの関心を集めているか、イベントやトピック自体に起因するものなのかを明らかにできない場合がある。
また、そのようなアプローチは、コンテンツの過剰な誇張と偽情報の拡散の悪化によって有害な発明につながる可能性がある。
本稿では,これらの問題を解決するための新しいフレームワークであるhonestbaitを提案する。
急激な発明を避けるために、訓練中に自己検証プロセスを含む。
まず、FRがユーザの関心にどのように影響するかを理解するための予備的なユーザスタディから始め、次に、偽ニュースと検証されたニュースのペアを含む革新的なデータセットであるPANCO1を紹介します。
自動測定と人的評価は、我々のフレームワークがより魅力的な結果(人手による検証済みニュースの見出しに比べて+11.25%)を得る一方で、高い妥当性を維持し、偽ニュースと戦うために実際の情報を促進するのに役立つことを示している。
関連論文リスト
- Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - TieFake: Title-Text Similarity and Emotion-Aware Fake News Detection [15.386007761649251]
本稿では,マルチモーダルな文脈情報と著者の感情を共同でモデル化し,テキストの類似性と感情認識型フェイクニュース検出(TieFake)手法を提案する。
具体的には、BERT と ResNeSt を用いて、テキストや画像の表現を学習し、出版者感情抽出器を用いて、ニュースコンテンツにおける著者の主観的感情をキャプチャする。
論文 参考訳(メタデータ) (2023-04-19T04:47:36Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - BaitWatcher: A lightweight web interface for the detection of
incongruent news headlines [27.29585619643952]
BaitWatcherは軽量なWebインターフェースで、ニュース記事の見出しをクリックする前に、読者が不一致の可能性を推定する。
BaiittWatcherは階層的リカレントエンコーダを使用して、ニュース見出しとその関連するボディテキストの複雑なテキスト表現を効率的に学習する。
論文 参考訳(メタデータ) (2020-03-23T23:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。