論文の概要: Claim Check-Worthiness Detection as Positive Unlabelled Learning
- arxiv url: http://arxiv.org/abs/2003.02736v2
- Date: Wed, 16 Sep 2020 16:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:25:23.172362
- Title: Claim Check-Worthiness Detection as Positive Unlabelled Learning
- Title(参考訳): 肯定的未学習としてのクレームチェックウェアネス検出
- Authors: Dustin Wright and Isabelle Augenstein
- Abstract要約: クレームチェックの信頼性検出はファクトチェックシステムにおいて重要な要素である。
これらの課題の根底にあるクレームチェックの信頼性検出における中心的な課題を照明する。
我々の最良の手法は、正の非競合学習の変種を用いて、これを自動的に修正する統一的なアプローチである。
- 参考スコア(独自算出の注目度): 53.24606510691877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the first step of automatic fact checking, claim check-worthiness
detection is a critical component of fact checking systems. There are multiple
lines of research which study this problem: check-worthiness ranking from
political speeches and debates, rumour detection on Twitter, and citation
needed detection from Wikipedia. To date, there has been no structured
comparison of these various tasks to understand their relatedness, and no
investigation into whether or not a unified approach to all of them is
achievable. In this work, we illuminate a central challenge in claim
check-worthiness detection underlying all of these tasks, being that they hinge
upon detecting both how factual a sentence is, as well as how likely a sentence
is to be believed without verification. As such, annotators only mark those
instances they judge to be clear-cut check-worthy. Our best performing method
is a unified approach which automatically corrects for this using a variant of
positive unlabelled learning that finds instances which were incorrectly
labelled as not check-worthy. In applying this, we out-perform the state of the
art in two of the three tasks studied for claim check-worthiness detection in
English.
- Abstract(参考訳): ファクトチェックの第一段階として、クレームチェック適性検出はファクトチェックシステムの重要なコンポーネントである。
この問題を調査する研究には、政治演説や討論からの評価、Twitterでの噂の検出、Wikipediaからの引用に必要な検出など、さまざまなものがある。
これまでにこれらのタスクの関連性を理解するための構造的な比較は行われておらず、これらすべてに対する統一的なアプローチが達成可能かどうかの調査も行われていない。
本研究は,これらの課題の根底にあるクレームチェック適性検出における中心的課題である文の真偽の把握と,文が検証無しにどの程度信用されるかに重きを置くものである。
そのため、アノテータはチェック値の明確化を判断するインスタンスのみをマークします。
当社のベストパフォーマンス手法は、チェックに値しないと誤ってラベル付けされたインスタンスを見つける正の非ラベル学習の変種を用いて、これを自動修正する統一アプローチである。
これを適用することで,英語におけるクレームチェック適性検出について検討した3つの課題のうち2つにおいて,芸術の状態を上回った。
関連論文リスト
- The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Leveraging Social Discourse to Measure Check-worthiness of Claims for
Fact-checking [36.21314290592325]
CheckItは、手動でアノテートされた大規模なTwitterデータセットで、きめ細かいクレームチェックの安全性を提供する。
私たちは、クレームがチェックに値するかどうかを共同で判断する統一的なアプローチであるCheckMateに対して、データセットをベンチマークします。
論文 参考訳(メタデータ) (2023-09-17T13:42:41Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - Check-worthy Claim Detection across Topics for Automated Fact-checking [21.723689314962233]
我々は、新しい、目に見えないトピックのチェック価値のあるクレームを検出するという課題を評価し、定量化する。
AraCWAモデルを提案し,トピック間のチェック値のクレームを検出する際の性能劣化を緩和する。
論文 参考訳(メタデータ) (2022-12-16T14:54:56Z) - Assessing Effectiveness of Using Internal Signals for Check-Worthy Claim
Identification in Unlabeled Data for Automated Fact-Checking [6.193231258199234]
本稿では,偽ニュース記事からチェック価値のあるクレーム文を特定する手法について検討する。
我々は2つの内部監督信号(見出しと抽象的な要約)を利用して文をランク付けする。
見出しは、ファクトチェックのWebサイトがクレームを記述する方法とよく似ているが、要約ベースのパイプラインは、エンドツーエンドのファクトチェックシステムにとって最も有望である。
論文 参考訳(メタデータ) (2021-11-02T16:17:20Z) - DialFact: A Benchmark for Fact-Checking in Dialogue [56.63709206232572]
われわれはDialFactという22,245の注釈付き会話クレームのベンチマークデータセットを構築し、ウィキペディアの証拠と組み合わせた。
FEVERのような非対話データでトレーニングされた既存のファクトチェックモデルは、我々のタスクでうまく機能しないことがわかった。
本稿では,対話におけるファクトチェック性能を効果的に向上する,シンプルなデータ効率のソリューションを提案する。
論文 参考訳(メタデータ) (2021-10-15T17:34:35Z) - UPV at CheckThat! 2021: Mitigating Cultural Differences for Identifying
Multilingual Check-worthy Claims [6.167830237917659]
本稿では,意図しないバイアスを軽減するための補助課題として,言語識別タスクを提案する。
その結果,言語識別とチェックアワーなクレーム検出タスクを併用することで,選択した言語の性能向上が期待できることがわかった。
論文 参考訳(メタデータ) (2021-09-19T21:46:16Z) - Assisting the Human Fact-Checkers: Detecting All Previously Fact-Checked
Claims in a Document [27.076320857009655]
入力文書が与えられた場合、以前に事実確認されたクレームによって検証可能なクレームを含むすべての文を検出することを目的としている。
出力は文書文の再ランクリストであり、検証可能なものは可能な限り高くランク付けされる。
本分析は,テキストの類似性やスタンスをモデル化することの重要性を実証すると同時に,検索した事実チェックされたクレームの正確性も考慮する。
論文 参考訳(メタデータ) (2021-09-14T13:46:52Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。