論文の概要: Linked Credibility Reviews for Explainable Misinformation Detection
- arxiv url: http://arxiv.org/abs/2008.12742v1
- Date: Fri, 28 Aug 2020 16:55:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:31:15.239106
- Title: Linked Credibility Reviews for Explainable Misinformation Detection
- Title(参考訳): 説明可能な誤情報検出のためのlinked credibility review
- Authors: Ronald Denaux and Jose Manuel Gomez-Perez
- Abstract要約: 本稿では,誤情報検出に協力する分散ボットのネットワーク構築に使用できるCR(Credibility Reviews)のコアコンセプトに基づくアーキテクチャを提案する。
CRは、(i)Webコンテンツのグラフを構成するためのビルディングブロックとして機能し、(ii)既存の信頼性信号 --fact-checked claimsとWebサイトの評判評価 -- を構成し、(iii)自動的に計算されたレビューを生成する。
このアーキテクチャは、.orgへの軽量な拡張と、意味的類似性と姿勢検出のための汎用的なNLPタスクを提供するサービスの上に実装されている。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, misinformation on the Web has become increasingly rampant.
The research community has responded by proposing systems and challenges, which
are beginning to be useful for (various subtasks of) detecting misinformation.
However, most proposed systems are based on deep learning techniques which are
fine-tuned to specific domains, are difficult to interpret and produce results
which are not machine readable. This limits their applicability and adoption as
they can only be used by a select expert audience in very specific settings. In
this paper we propose an architecture based on a core concept of Credibility
Reviews (CRs) that can be used to build networks of distributed bots that
collaborate for misinformation detection. The CRs serve as building blocks to
compose graphs of (i) web content, (ii) existing credibility signals
--fact-checked claims and reputation reviews of websites--, and (iii)
automatically computed reviews. We implement this architecture on top of
lightweight extensions to Schema.org and services providing generic NLP tasks
for semantic similarity and stance detection. Evaluations on existing datasets
of social-media posts, fake news and political speeches demonstrates several
advantages over existing systems: extensibility, domain-independence,
composability, explainability and transparency via provenance. Furthermore, we
obtain competitive results without requiring finetuning and establish a new
state of the art on the Clef'18 CheckThat! Factuality task.
- Abstract(参考訳): 近年,web上の誤情報が急増している。
研究コミュニティは、誤った情報を検出する(さまざまなサブタスク)のに役立つシステムや課題を提案して対応している。
しかし,提案するシステムの多くは,特定のドメインに微調整された深層学習技術に基づいており,機械が読めない結果の解釈や生成が困難である。
これにより、特定の設定で特定の専門家によってのみ使用できるため、適用性と採用が制限される。
本稿では,信頼度評価(crs)のコア概念に基づくアーキテクチャを提案する。
CRはグラフを構成するためのビルディングブロックとして機能する
(i)ウェブコンテンツ。
(ii)既存の信用度信号 --ウェブサイトの事実確認クレームと評判レビュー--
(iii)自動計算によるレビュー。
Schema.orgの軽量拡張と,意味的類似性と姿勢検出のための汎用NLPタスクを提供するサービス上に,このアーキテクチャを実装している。
ソーシャルメディア投稿、フェイクニュース、政治演説の既存のデータセットの評価は、拡張性、ドメイン独立性、コンポーザビリティ、説明可能性、プロヴァンスを通じた透明性といった既存のシステムに対するいくつかの利点を示しています。
さらに、我々は微調整を必要とせずに競争結果を得、Clef'18 CheckThatの新たな最先端技術を確立する。
事実性タスク。
関連論文リスト
- FineFake: A Knowledge-Enriched Dataset for Fine-Grained Multi-Domain Fake News Detection [54.37159298632628]
FineFakeは、フェイクニュース検出のためのマルチドメイン知識強化ベンチマークである。
FineFakeは6つのセマンティックトピックと8つのプラットフォームにまたがる16,909のデータサンプルを含んでいる。
FineFakeプロジェクト全体がオープンソースリポジトリとして公開されている。
論文 参考訳(メタデータ) (2024-03-30T14:39:09Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - COVIDFakeExplainer: An Explainable Machine Learning based Web
Application for Detecting COVID-19 Fake News [1.257018053967058]
本稿では,偽ニュース検出の優れたモデルとしてBERTを確立する。
我々はブラウザエクステンションを実装し、説明可能性機能を強化し、フェイクニュースのリアルタイム識別を可能にした。
実験では、BERTが新型コロナウイルス関連の偽ニュースを検出するのに非常に正確であることを確認した。
論文 参考訳(メタデータ) (2023-10-21T02:11:39Z) - Building Interpretable and Reliable Open Information Retriever for New
Domains Overnight [67.03842581848299]
情報検索は、オープンドメイン質問応答(QA)など、多くのダウンストリームタスクにとって重要な要素である。
本稿では、エンティティ/イベントリンクモデルとクエリ分解モデルを用いて、クエリの異なる情報単位により正確にフォーカスする情報検索パイプラインを提案する。
より解釈可能で信頼性が高いが,提案したパイプラインは,5つのIRおよびQAベンチマークにおける通過カバレッジと記述精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-09T07:47:17Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Deep Learning Architecture for Automatic Essay Scoring [0.0]
本稿では、リカレントネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)に基づく新しいアーキテクチャを提案する。
提案アーキテクチャでは, 単語埋め込みベクトルから, 単語n-gramの文脈的特徴を学習し, 捉える。
提案方式は,他の深層学習に基づくAESシステムよりも格付け精度が高い。
論文 参考訳(メタデータ) (2022-06-16T14:56:24Z) - Neuro-Symbolic Artificial Intelligence (AI) for Intent based Semantic
Communication [85.06664206117088]
6Gネットワークはデータ転送のセマンティクスと有効性(エンドユーザ)を考慮する必要がある。
観測データの背後にある因果構造を学習するための柱としてNeSy AIが提案されている。
GFlowNetは、無線システムにおいて初めて活用され、データを生成する確率構造を学ぶ。
論文 参考訳(メタデータ) (2022-05-22T07:11:57Z) - CREPO: An Open Repository to Benchmark Credal Network Algorithms [78.79752265884109]
クレダルネットワークは、確率質量関数の集合であるクレダルに基づく不正確な確率的グラフィカルモデルである。
CREMAと呼ばれるJavaライブラリが最近リリースされ、クレダルネットワークをモデル化し、処理し、クエリする。
我々は,これらのモデル上での推論タスクの正確な結果とともに,合成クレダルネットワークのオープンリポジトリであるcrrepoを提案する。
論文 参考訳(メタデータ) (2021-05-10T07:31:59Z) - Discriminatory Expressions to Produce Interpretable Models in Short
Documents [0.0]
State-of-the-artモデルは、社会的影響のある問題の解決に使用すべきではないブラックボックスである。
本稿では,少ないが有意義な特徴を用いることで,理解度を向上させる機能選択機構を提案する。
論文 参考訳(メタデータ) (2020-11-27T19:00:50Z) - P2ExNet: Patch-based Prototype Explanation Network [5.557646286040063]
人間の認知に触発された説明可能な推論過程を本質的に利用するために設計された,解釈可能な新しいネットワークスキームを提案する。
P2ExNetは、本質的には理解可能でトレース可能な決定を提供するが、それと比較すると、同等のパフォーマンスに達する。
論文 参考訳(メタデータ) (2020-05-05T08:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。