論文の概要: Leveraging Knowledge Graphs and LLMs for Structured Generation of Misinformation
- arxiv url: http://arxiv.org/abs/2505.24479v1
- Date: Fri, 30 May 2025 11:29:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.925519
- Title: Leveraging Knowledge Graphs and LLMs for Structured Generation of Misinformation
- Title(参考訳): 誤情報生成のための知識グラフとLCMの活用
- Authors: Sania Nayab, Marco Simoni, Giulio Rossolini,
- Abstract要約: 本稿では,知識グラフ(KG)を構造的意味資源として活用し,偽三重項を生成する手法を提案する。
これらの三重項は、様々な信頼度を持つ誤情報文を生成する際に、大きな言語モデル(LLM)を導くのに使用される。
- 参考スコア(独自算出の注目度): 3.604879434384177
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid spread of misinformation, further amplified by recent advances in generative AI, poses significant threats to society, impacting public opinion, democratic stability, and national security. Understanding and proactively assessing these threats requires exploring methodologies that enable structured and scalable misinformation generation. In this paper, we propose a novel approach that leverages knowledge graphs (KGs) as structured semantic resources to systematically generate fake triplets. By analyzing the structural properties of KGs, such as the distance between entities and their predicates, we identify plausibly false relationships. These triplets are then used to guide large language models (LLMs) in generating misinformation statements with varying degrees of credibility. By utilizing structured semantic relationships, our deterministic approach produces misinformation inherently challenging for humans to detect, drawing exclusively upon publicly available KGs (e.g., WikiGraphs). Additionally, we investigate the effectiveness of LLMs in distinguishing between genuine and artificially generated misinformation. Our analysis highlights significant limitations in current LLM-based detection methods, underscoring the necessity for enhanced detection strategies and a deeper exploration of inherent biases in generative models.
- Abstract(参考訳): 偽情報の急速な拡散は、近年のジェネレーティブAIの進歩によってさらに増幅され、社会に重大な脅威をもたらし、世論、民主的安定性、国家安全保障に影響を及ぼす。
これらの脅威を理解し、積極的に評価するには、構造化されスケーラブルな誤情報生成を可能にする方法を検討する必要がある。
本稿では,知識グラフ(KG)を構造的意味資源として活用し,ニセトリプレットを体系的に生成する手法を提案する。
実体とそれらの述語の間の距離などのKGの構造的特性を解析することにより、少なくとも偽の関係を同定する。
これらの三重項は、様々な信頼度を持つ誤情報文を生成する際に、大きな言語モデル(LLM)を導くのに使用される。
構造的セマンティックな関係を利用して、私たちの決定論的アプローチは、人間が公開可能なKG(例えばWikiGraphs)にのみ依存して、検出することが本質的に難しい誤情報を生み出す。
さらに,実情報と人工情報とを区別するLLMの有効性について検討した。
本分析では,現在のLCMに基づく検出手法において,検出戦略の強化の必要性と,生成モデルにおける固有バイアスのより深い探究の必要性を浮き彫りにしている。
関連論文リスト
- A Graph Perspective to Probe Structural Patterns of Knowledge in Large Language Models [52.52824699861226]
大規模な言語モデルは、その知識アクセス、編集可能性、推論可能性、説明可能性のための神経知識基盤として広く研究されている。
我々は,LLMの知識を三重項レベルと実体レベルの両方で定量化し,ノード次数などのグラフ構造特性との関連性を分析する。
論文 参考訳(メタデータ) (2025-05-25T19:34:15Z) - Adaptive Elicitation of Latent Information Using Natural Language [6.162198958758635]
本稿では,潜在エンティティの不確かさを積極的に軽減する適応型エレクテーションフレームワークを提案する。
我々のフレームワークは,メタ学習言語モデルを用いて将来の観測をシミュレートし,不確実性を予測する。
20の質問ゲーム、動的世論ポーリング、適応的学生評価の実験において、本手法は批判的未知を識別する基準線を一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-05T15:18:55Z) - Unmasking Digital Falsehoods: A Comparative Analysis of LLM-Based Misinformation Detection Strategies [0.0]
本稿では,テキストベース,マルチモーダル,エージェント間の誤情報検出手法の比較を行う。
本研究では,異なる話題領域における誤情報検出における微調整モデル,ゼロショット学習,系統的事実チェック機構の有効性を評価する。
論文 参考訳(メタデータ) (2025-03-02T04:31:42Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Dynamic Analysis and Adaptive Discriminator for Fake News Detection [59.41431561403343]
偽ニュース検出のための動的解析・適応識別器(DAAD)手法を提案する。
知識に基づく手法では,モンテカルロ木探索アルゴリズムを導入し,大規模言語モデルの自己表現能力を活用する。
意味に基づく手法では、偽ニュース生成のメカニズムを明らかにするために、典型的偽造パターンを4つ定義する。
論文 参考訳(メタデータ) (2024-08-20T14:13:54Z) - Knowledge Graph Structure as Prompt: Improving Small Language Models Capabilities for Knowledge-based Causal Discovery [10.573861741540853]
KG Structure as Promptは、共通ノードやメタパスなどの知識グラフから構造情報を即時学習に統合するための新しいアプローチである。
バイオメディカルデータセットとオープンドメインデータセットの3種類の実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-26T14:07:00Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。