論文の概要: Veracity: An Open-Source AI Fact-Checking System
- arxiv url: http://arxiv.org/abs/2506.15794v1
- Date: Wed, 18 Jun 2025 18:24:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.794765
- Title: Veracity: An Open-Source AI Fact-Checking System
- Title(参考訳): Veracity: オープンソースのAI Fact-Checkingシステム
- Authors: Taylor Lynn Curtis, Maximilian Puelma Touzel, William Garneau, Manon Gruaz, Mike Pinder, Li Wei Wang, Sukanya Krishna, Luda Cohen, Jean-François Godbout, Reihaneh Rabbany, Kellin Pelrine,
- Abstract要約: 本稿では,透過的でアクセス可能なファクトチェックを通じて誤情報に対処するために設計された,オープンソースのAIシステムであるVeracityを紹介する。
主な機能としては、多言語サポート、クレームの正確性の数値的なスコアリング、使い慣れたメッセージングアプリケーションにインスパイアされた対話型インターフェースなどがある。
- 参考スコア(独自算出の注目度): 11.476157136162989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of misinformation poses a significant threat to society, exacerbated by the capabilities of generative AI. This demo paper introduces Veracity, an open-source AI system designed to empower individuals to combat misinformation through transparent and accessible fact-checking. Veracity leverages the synergy between Large Language Models (LLMs) and web retrieval agents to analyze user-submitted claims and provide grounded veracity assessments with intuitive explanations. Key features include multilingual support, numerical scoring of claim veracity, and an interactive interface inspired by familiar messaging applications. This paper will showcase Veracity's ability to not only detect misinformation but also explain its reasoning, fostering media literacy and promoting a more informed society.
- Abstract(参考訳): 誤報の拡散は、生成的AIの能力によって悪化する社会に重大な脅威をもたらす。
このデモペーパーでは、透明性とアクセス可能な事実チェックを通じて、個人が誤情報に対処できるように設計された、オープンソースのAIシステムであるVeracityを紹介します。
Veracityは、Large Language Models(LLM)とWeb検索エージェントの相乗効果を利用して、ユーザからの要求を分析し、直感的な説明を伴う基礎的な妥当性評価を提供する。
主な機能としては、多言語サポート、クレームの正確性の数値的なスコアリング、使い慣れたメッセージングアプリケーションにインスパイアされた対話型インターフェースなどがある。
本稿では,誤報を検知するだけでなく,その理由を説明し,メディアリテラシーを育成し,より情報のある社会を育成するVeracityの能力を紹介する。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - A Modality-level Explainable Framework for Misinformation Checking in
Social Networks [2.4028383570062606]
本稿では,マルチモーダルの観点から,ソーシャルネットワークにおける誤情報の自動チェックについて述べる。
我々のフレームワークは、モダリティ指向の説明可能な推論を生成するための説明可能な方法によって補助される誤情報分類器で構成されている。
論文 参考訳(メタデータ) (2022-12-08T13:57:06Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。