論文の概要: Loki: An Open-Source Tool for Fact Verification
- arxiv url: http://arxiv.org/abs/2410.01794v1
- Date: Wed, 2 Oct 2024 17:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 15:14:33.717317
- Title: Loki: An Open-Source Tool for Fact Verification
- Title(参考訳): Loki: Fact Verificationのオープンソースツール
- Authors: Haonan Li, Xudong Han, Hao Wang, Yuxia Wang, Minghan Wang, Rui Xing, Yilin Geng, Zenan Zhai, Preslav Nakov, Timothy Baldwin,
- Abstract要約: Lokiは、誤情報の増加に対処するために設計されたオープンソースのツールだ。
長いテキストを個々のクレームに分割し、チェックの信頼性を評価し、クエリを生成し、エビデンスを取得し、クレームを検証する。
LokiはMITライセンスでリリースされており、GitHubから入手できる。
- 参考スコア(独自算出の注目度): 49.54538618882767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Loki, an open-source tool designed to address the growing problem of misinformation. Loki adopts a human-centered approach, striking a balance between the quality of fact-checking and the cost of human involvement. It decomposes the fact-checking task into a five-step pipeline: breaking down long texts into individual claims, assessing their check-worthiness, generating queries, retrieving evidence, and verifying the claims. Instead of fully automating the claim verification process, Loki provides essential information at each step to assist human judgment, especially for general users such as journalists and content moderators. Moreover, it has been optimized for latency, robustness, and cost efficiency at a commercially usable level. Loki is released under an MIT license and is available on GitHub. We also provide a video presenting the system and its capabilities.
- Abstract(参考訳): 誤情報の増加に対処するために設計されたオープンソースツールであるLokiを紹介する。
Lokiは人間中心のアプローチを採用しており、事実チェックの品質と人間の関与コストのバランスを保っている。
長いテキストを個々のクレームに分割し、チェックの信頼性を評価し、クエリを生成し、エビデンスを取得し、クレームを検証する。
クレーム検証プロセスを完全に自動化する代わりに、Lokiは、特にジャーナリストやコンテンツモデレーターのような一般ユーザーに対して、人間の判断を支援するために、各ステップで不可欠な情報を提供する。
さらに、商業的に使用可能なレベルで、レイテンシ、堅牢性、コスト効率に最適化されている。
LokiはMITライセンスでリリースされており、GitHubから入手できる。
システムとその機能を示すビデオも提供します。
関連論文リスト
- ClaimVer: Explainable Claim-Level Verification and Evidence Attribution of Text Through Knowledge Graphs [13.608282497568108]
ClaimVerは、ユーザの情報と検証のニーズを満たすように設計された、人間中心のフレームワークである。
各クレームをハイライトし、信頼された知識グラフに対して検証し、クレームの予測に対して簡潔で明確な説明を提供する。
論文 参考訳(メタデータ) (2024-03-12T17:07:53Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - QACHECK: A Demonstration System for Question-Guided Multi-Hop
Fact-Checking [68.06355980166053]
本稿では,質問誘導型マルチホップFact-Checking(QACHECK)システムを提案する。
クレームの検証に批判的な一連の質問をすることで、モデルの推論プロセスを導く。
各質問を支持する証拠の源となり、透明で説明可能な、ユーザフレンドリーな事実チェックプロセスが育まれます。
論文 参考訳(メタデータ) (2023-10-11T15:51:53Z) - ExClaim: Explainable Neural Claim Verification Using Rationalization [8.369720566612111]
ExClaimは、基礎的な証拠を含む説明可能なクレーム検証システムを提供しようとしている。
法体系にインスパイアされたExClaimは、合理化を活用して、請求に対する評決を提供する。
統計的および説明可能なAI(XAI)の評価は、有効で信頼性の高い結果を保証するために行われる。
論文 参考訳(メタデータ) (2023-01-21T08:26:27Z) - CrowdChecked: Detecting Previously Fact-Checked Claims in Social Media [19.688259030184508]
修正された自己適応学習に基づいてノイズの多いデータから学習するエンド・ツー・エンドのフレームワークを提案する。
CLEF'21 CheckThat!テストセットの実験では,2点の絶対値による技術状況の改善が示されている。
論文 参考訳(メタデータ) (2022-10-10T06:05:52Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - Quantus: An Explainable AI Toolkit for Responsible Evaluation of Neural
Network Explanations and Beyond [8.938727411982399]
QuantusはPythonの包括的な評価ツールキットであり、説明可能なメソッドを評価するための評価メトリクスとチュートリアルのコレクションを含んでいる。
ツールキットは徹底的にテストされており、PyPiのオープンソースライセンスの下で利用できる。
論文 参考訳(メタデータ) (2022-02-14T16:45:36Z) - Assisting the Human Fact-Checkers: Detecting All Previously Fact-Checked
Claims in a Document [27.076320857009655]
入力文書が与えられた場合、以前に事実確認されたクレームによって検証可能なクレームを含むすべての文を検出することを目的としている。
出力は文書文の再ランクリストであり、検証可能なものは可能な限り高くランク付けされる。
本分析は,テキストの類似性やスタンスをモデル化することの重要性を実証すると同時に,検索した事実チェックされたクレームの正確性も考慮する。
論文 参考訳(メタデータ) (2021-09-14T13:46:52Z) - Generating Fact Checking Briefs [97.82546239639964]
本研究では, 事実確認の精度と効率を高めるために, 事実確認を行う前に, クレームに関する情報を提供することにより, 事実確認の精度と効率を高める方法について検討する。
我々は,クレームに条件付き質問セットを生成し,証拠を検索し,回答を生成するモデルQABrieferを開発した。
本研究では,特にQABriefsにおけるブリーフィングによる事実チェックによって,クラウドワーカーの精度が10%向上すると同時に,時間もわずかに低下することを示す。
論文 参考訳(メタデータ) (2020-11-10T23:02:47Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。