論文の概要: Can LLMs Ground when they (Don't) Know: A Study on Direct and Loaded Political Questions
- arxiv url: http://arxiv.org/abs/2506.08952v2
- Date: Wed, 11 Jun 2025 06:58:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 23:41:16.746973
- Title: Can LLMs Ground when they (Don't) Know: A Study on Direct and Loaded Political Questions
- Title(参考訳): LLMを知ってはならない: 直接的および負荷のある政治問題に関する研究
- Authors: Clara Lachenmaier, Judith Sieker, Sina Zarrieß,
- Abstract要約: 本稿では,大言語モデル (LLM) が知識を持つ場合の共通基盤をどのように管理するかを検討する。
本研究では,LLMが直接知識質問に答える能力について検討し,誤報を前提とした質問をロードする能力について考察する。
本研究は,LLMが偽ユーザ信念を根底から否定する能力において,政治的言論における偽情報の緩和に果たした役割に対する懸念を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 7.9042053398943075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Communication among humans relies on conversational grounding, allowing interlocutors to reach mutual understanding even when they do not have perfect knowledge and must resolve discrepancies in each other's beliefs. This paper investigates how large language models (LLMs) manage common ground in cases where they (don't) possess knowledge, focusing on facts in the political domain where the risk of misinformation and grounding failure is high. We examine the ability of LLMs to answer direct knowledge questions and loaded questions that presuppose misinformation. We evaluate whether loaded questions lead LLMs to engage in active grounding and correct false user beliefs, in connection to their level of knowledge and their political bias. Our findings highlight significant challenges in LLMs' ability to engage in grounding and reject false user beliefs, raising concerns about their role in mitigating misinformation in political discourse.
- Abstract(参考訳): 人間同士のコミュニケーションは会話の基盤に頼っており、相互の理解が完璧でない場合でも相互に理解でき、相互の信念に矛盾を解消しなければならない。
本稿では,大言語モデル(LLM)が,誤情報や失敗のリスクが高い政治的領域における事実に焦点をあて,知識を有する場合の共通基盤を管理する方法について検討する。
本研究では,LLMが直接知識質問に答える能力について検討し,誤報を前提とした質問をロードする能力について考察する。
負荷された質問がLCMを活発な根拠づけや偽ユーザ信条の是正に導くか否かを,その知識レベルと政治的偏見に関連して評価する。
本研究は,LLMが偽ユーザ信念を根底から否定する能力において,政治的言論における偽情報の緩和に果たした役割に対する懸念を浮き彫りにしている。
関連論文リスト
- NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Understanding the Interplay between Parametric and Contextual Knowledge for Large Language Models [85.13298925375692]
大規模言語モデル(LLM)は、事前訓練中に大量の知識を符号化する。
LLMは文脈知識(CK)を取り入れることで拡張できる
LLMは複雑な問題を解決するために、内部PKと外部CKを効果的に統合できるのか?
論文 参考訳(メタデータ) (2024-10-10T23:09:08Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - The Earth is Flat because...: Investigating LLMs' Belief towards Misinformation via Persuasive Conversation [23.39754835621968]
大規模な言語モデル(LLM)は膨大な量の知識をカプセル化しているが、それでも外部の誤情報に弱いままである。
説得的対話におけるLLMの信念変化を追跡するためのテストフレームワークを開発する。
LLMの事実知識に対する正しい信念は、様々な説得的戦略によって容易に操作できることがわかった。
論文 参考訳(メタデータ) (2023-12-14T16:16:50Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。