論文の概要: FACTS&EVIDENCE: An Interactive Tool for Transparent Fine-Grained Factual Verification of Machine-Generated Text
- arxiv url: http://arxiv.org/abs/2503.14797v1
- Date: Wed, 19 Mar 2025 00:14:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:24:16.452001
- Title: FACTS&EVIDENCE: An Interactive Tool for Transparent Fine-Grained Factual Verification of Machine-Generated Text
- Title(参考訳): FACTS&EVIDENCE: マシン生成テキストの透過的ファクチュアル検証のためのインタラクティブツール
- Authors: Varich Boonsanong, Vidhisha Balachandran, Xiaochuang Han, Shangbin Feng, Lucy Lu Wang, Yulia Tsvetkov,
- Abstract要約: Facts&Evidenceは、複雑なテキストのユーザ主導検証のためのインタラクティブツールである。
個々の主張の信頼性を可視化し、モデル決定と複数の多様な証拠ソースへの帰属を説明する。
- 参考スコア(独自算出の注目度): 39.804889153032526
- License:
- Abstract: With the widespread consumption of AI-generated content, there has been an increased focus on developing automated tools to verify the factual accuracy of such content. However, prior research and tools developed for fact verification treat it as a binary classification or a linear regression problem. Although this is a useful mechanism as part of automatic guardrails in systems, we argue that such tools lack transparency in the prediction reasoning and diversity in source evidence to provide a trustworthy user experience. We develop Facts&Evidence - an interactive and transparent tool for user-driven verification of complex text. The tool facilitates the intricate decision-making involved in fact-verification, presenting its users a breakdown of complex input texts to visualize the credibility of individual claims along with an explanation of model decisions and attribution to multiple, diverse evidence sources. Facts&Evidence aims to empower consumers of machine-generated text and give them agency to understand, verify, selectively trust and use such text.
- Abstract(参考訳): AI生成コンテンツの普及に伴い、そうしたコンテンツの事実的正確性を検証する自動化ツールの開発に焦点が当てられている。
しかし、事実検証のために開発された先行研究やツールは、それを二項分類または線形回帰問題として扱う。
これは、システムにおける自動ガードレールの一部として有用なメカニズムであるが、信頼できるユーザエクスペリエンスを提供するために、ソースエビデンスにおける予測推論と多様性の透明性が欠如している、と我々は主張する。
Facts&Evidence - 複雑なテキストをユーザ主導で検証するためのインタラクティブで透明なツール。
このツールは、事実検証に関わる複雑な意思決定を促進し、ユーザに対して、個々のクレームの信頼性を可視化する複雑な入力テキストの分解と、モデル決定の説明と、複数の多様な証拠ソースへの帰属を提示する。
Facts&Evidence(ファクトス&エビデンス)は、消費者に機械生成テキストの力を与え、そうしたテキストを理解し、検証し、選択的に信頼し、使用するためのエージェンシーを提供する。
関連論文リスト
- Decoding the Digital Fine Print: Navigating the potholes in Terms of service/ use of GenAI tools against the emerging need for Transparent and Trustworthy Tech Futures [0.0]
この研究は、特定のGenAIにおいて、ユーザの信頼を育み、AIの文脈における情報的意思決定を促進するために、明確で理解不能なサービス用語が果たす重要な役割について調査する。
これは、複雑な法的用語と詳細な細かな印刷によって提示される障害を強調しており、これは真のユーザの同意と会話を妨げる。
発見は文書品質の矛盾と変動を示し、開示の慣行における統一性の要求が押し寄せていることを示している。
論文 参考訳(メタデータ) (2024-03-26T04:54:53Z) - ClaimVer: Explainable Claim-Level Verification and Evidence Attribution of Text Through Knowledge Graphs [13.608282497568108]
ClaimVerは、ユーザの情報と検証のニーズを満たすように設計された、人間中心のフレームワークである。
各クレームをハイライトし、信頼された知識グラフに対して検証し、クレームの予測に対して簡潔で明確な説明を提供する。
論文 参考訳(メタデータ) (2024-03-12T17:07:53Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - Scaling up Memory-Efficient Formal Verification Tools for Tree Ensembles [2.588973722689844]
ツール記述として提示されたVoTEアルゴリズムを形式化し拡張する。
コア検証エンジンからプロパティチェックを分離することで、汎用性のある要件の検証が可能となります。
数値認識と航空機衝突回避という2つのケーススタディで、このツールの適用を実証します。
論文 参考訳(メタデータ) (2021-05-06T11:50:22Z) - Evidence-Aware Inferential Text Generation with Vector Quantised
Variational AutoEncoder [104.25716317141321]
本稿では,大規模なテキストコーパスからイベントの証拠を自動的に発見し,その証拠を利用して推論テキストの生成を導く手法を提案する。
このアプローチは、Event2MindとATOMICの両方のデータセットで最先端のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2020-06-15T02:59:52Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。