論文の概要: Leveraging Commonsense Knowledge on Classifying False News and
Determining Checkworthiness of Claims
- arxiv url: http://arxiv.org/abs/2108.03731v1
- Date: Sun, 8 Aug 2021 20:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 04:30:00.418679
- Title: Leveraging Commonsense Knowledge on Classifying False News and
Determining Checkworthiness of Claims
- Title(参考訳): 偽ニュースの分類とクレームの検査性判定における常識知識の活用
- Authors: Ipek Baris Schlicht, Erhan Sezerer, Selma Tekir, Oul Han, Zeyd
Boukhers
- Abstract要約: 本稿では,偽ニュース分類とチェック価値のあるクレーム検出のタスクに対して,コモンセンスの知識を活用することを提案する。
マルチタスク学習環境において、BERT言語モデルに共通する質問応答タスクと上記のタスクを微調整する。
実験により,コモンセンス知識が両タスクのパフォーマンスを向上させることを示す。
- 参考スコア(独自算出の注目度): 1.487444917213389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Widespread and rapid dissemination of false news has made fact-checking an
indispensable requirement. Given its time-consuming and labor-intensive nature,
the task calls for an automated support to meet the demand. In this paper, we
propose to leverage commonsense knowledge for the tasks of false news
classification and check-worthy claim detection. Arguing that commonsense
knowledge is a factor in human believability, we fine-tune the BERT language
model with a commonsense question answering task and the aforementioned tasks
in a multi-task learning environment. For predicting fine-grained false news
types, we compare the proposed fine-tuned model's performance with the false
news classification models on a public dataset as well as a newly collected
dataset. We compare the model's performance with the single-task BERT model and
a state-of-the-art check-worthy claim detection tool to evaluate the
check-worthy claim detection. Our experimental analysis demonstrates that
commonsense knowledge can improve performance in both tasks.
- Abstract(参考訳): 偽ニュースの広範かつ急速な拡散は、事実確認を必須の要件とした。
その時間と労働集約性を考えると、このタスクは需要を満たすための自動支援を要求する。
本稿では,偽ニュース分類とチェック価値の高いクレーム検出のタスクに共通センス知識を活用することを提案する。
共感覚知識が人間の信頼性の要因であることに疑問を呈し、マルチタスク学習環境における共通感覚質問応答タスクと上記のタスクを、BERT言語モデルに微調整する。
きめ細かな偽ニュースのタイプを予測するために,提案する微調整モデルの性能と,公開データセット上の偽ニュース分類モデルと,新たに収集したデータセットを比較した。
我々は,本モデルの性能を単一タスクBERTモデルと最先端のチェック値クレーム検出ツールと比較し,チェック値クレーム検出を評価する。
実験により,コモンセンス知識が両タスクのパフォーマンスを向上させることを示す。
関連論文リスト
- How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - A practical method for occupational skills detection in Vietnamese job
listings [0.16114012813668932]
正確でタイムリーな労働市場情報の欠如は、スキルミスマッチにつながる。
従来のアプローチは、既存の分類学および/または大きな注釈付きデータに依存している。
ベトナムの求人求職者におけるスキル検出のための実践的手法を提案する。
論文 参考訳(メタデータ) (2022-10-26T10:23:18Z) - An Adversarial Benchmark for Fake News Detection Models [0.065268245109828]
我々は「理解」の3つの側面を狙う敵攻撃を定式化する
我々は、LIAR arXiv:arch-ive/1705648とKaggle Fake-Newsデータセットで微調整されたBERT分類器を用いてベンチマークをテストする。
論文 参考訳(メタデータ) (2022-01-03T23:51:55Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - A Paragraph-level Multi-task Learning Model for Scientific
Fact-Verification [15.121389624346927]
科学的主張を裏付けるあるいは合理的な証拠を提供することによって検証することは、非自明な作業である。
本研究では,bertモデルからコンテキスト化文の埋め込み列を直接計算し,合理的選択と姿勢予測のモデルを共同で学習することにより,scifactタスクのための段落レベルのマルチタスク学習モデルを提案する。
論文 参考訳(メタデータ) (2020-12-28T21:51:31Z) - Knowledge-driven Data Construction for Zero-shot Evaluation in
Commonsense Question Answering [80.60605604261416]
本稿では,共通認識課題にまたがるゼロショット質問応答のための新しいニューラルシンボリック・フレームワークを提案する。
言語モデル、トレーニング体制、知識ソース、データ生成戦略のセットを変えて、タスク間の影響を測定します。
個別の知識グラフは特定のタスクに適しているが、グローバルな知識グラフはさまざまなタスクに対して一貫した利得をもたらす。
論文 参考訳(メタデータ) (2020-11-07T22:52:21Z) - On Commonsense Cues in BERT for Solving Commonsense Tasks [22.57431778325224]
BERTはCommonsenseQAなどのCommonsenseタスクの解決に使用されている。
本研究では,BERTにおけるコモンセンスタスクの解決における構造的コモンセンスキューの存在と,モデル予測におけるそのようなキューの重要性を定量的に検討する。
論文 参考訳(メタデータ) (2020-08-10T08:12:34Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。