論文の概要: Whose Facts Win? LLM Source Preferences under Knowledge Conflicts
- arxiv url: http://arxiv.org/abs/2601.03746v2
- Date: Tue, 13 Jan 2026 09:48:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 14:06:39.223245
- Title: Whose Facts Win? LLM Source Preferences under Knowledge Conflicts
- Title(参考訳): LLMソースの選好は、誰が勝つのか?
- Authors: Jakob Schuster, Vagrant Gautam, Katja Markert,
- Abstract要約: そこで本研究では,言語間知識の衝突による大言語モデル(LLM)の解決にソースの嗜好がどのような影響を及ぼすかを検討する。
LLMは、人やソーシャルメディアの情報よりも、制度的に協調した情報を好む。
これらのソースの好みは、信頼性の低いソースからの情報を単に繰り返すことで逆転することができる。
- 参考スコア(独自算出の注目度): 4.587118047944915
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As large language models (LLMs) are more frequently used in retrieval-augmented generation pipelines, it is increasingly relevant to study their behavior under knowledge conflicts. Thus far, the role of the source of the retrieved information has gone unexamined. We address this gap with a novel framework to investigate how source preferences affect LLM resolution of inter-context knowledge conflicts in English, motivated by interdisciplinary research on credibility. With a comprehensive, tightly-controlled evaluation of 13 open-weight LLMs, we find that LLMs prefer institutionally-corroborated information (e.g., government or newspaper sources) over information from people and social media. However, these source preferences can be reversed by simply repeating information from less credible sources. To mitigate repetition effects and maintain consistent preferences, we propose a novel method that reduces repetition bias by up to 99.8%, while also maintaining at least 88.8% of original preferences. We release all data and code to encourage future work on credibility and source preferences in knowledge-intensive NLP.
- Abstract(参考訳): 大規模言語モデル (LLM) は、検索強化世代パイプラインで頻繁に使用されるため、知識衝突下でのそれらの振る舞いを研究することがますます重要になっている。
これまでのところ、検索された情報のソースの役割は検討されていない。
文献間の知識紛争のLLM解決に,資料の選好がどのような影響を及ぼすかを検討するための,新たな枠組みによるこのギャップに対処する。
13個のオープンウェイトLCMの包括的かつ厳密な評価により, LLMは, 人やソーシャルメディアの情報よりも, 制度的に協調した情報(例えば, 政府や新聞の情報源)を好むことがわかった。
しかし、これらのソースの好みは、信頼性の低いソースからの情報を単に繰り返すことで逆転することができる。
反復効果を緩和し、一貫した嗜好を維持するため、繰り返しバイアスを最大99.8%削減すると同時に、元の嗜好の少なくとも88.8%を維持できる新しい方法を提案する。
知識集約NLPにおける信頼性とソース選好に関する今後の研究を促進するために、すべてのデータとコードをリリースする。
関連論文リスト
- How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - How does Misinformation Affect Large Language Model Behaviors and Preferences? [37.06385727015972]
大きな言語モデル(LLM)は、知識集約的なタスクにおいて顕著な能力を示している。
我々は,LLMの行動と誤情報に対する知識嗜好を評価するための,現在最大かつ最も包括的なベンチマークであるMisBenchを紹介する。
実証的な結果から、LLMは誤報を識別する能力に匹敵する能力を示すが、知識の衝突やスタイルのバリエーションの影響を受けやすいままであることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-27T17:57:44Z) - Accommodate Knowledge Conflicts in Retrieval-augmented LLMs: Towards Reliable Response Generation in the Wild [11.058848731627233]
大規模言語モデル (LLM) には高度な情報検索システムがある。
LLMは、しばしば内部記憶と検索された外部情報の間の知識の衝突に直面している。
スウィンVIBは,変分情報ボトルネックモデルのパイプラインを,検索した情報の適応的拡張に統合する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-04-17T14:40:31Z) - Fact-checking AI-generated news reports: Can LLMs catch their own lies? [4.232709762282742]
我々は,Large Language Models (LLMs) が自らのコンテンツを効果的にファクトチェックできるかどうかを評価する。
LLMは、地方ニュースよりも、全国ニュースや国際ニュースの主張を評価するのに効果的である。
LLMが評価できないクレームの数を大幅に減らすことができる。
論文 参考訳(メタデータ) (2025-03-24T02:32:02Z) - How LLMs Fail to Support Fact-Checking [4.918358353535447]
LLM(Large Language Models)は、オンラインの誤報を増幅するが、誤報に対処することを約束する。
我々は、政治的誤報に対処する3つのLDM(ChatGPT、Gemini、Claude)の能力を実証的に研究する。
以上の結果から,モデルが実際のニュースソースで回答を得るのに苦労し,左利きの情報源を引用する傾向が示唆された。
論文 参考訳(メタデータ) (2025-02-28T07:12:03Z) - Cognitive Biases in Large Language Models for News Recommendation [68.90354828533535]
本稿では,認知バイアスが大規模言語モデル(LLM)に基づくニュースレコメンデータシステムに与える影響について検討する。
データ拡張、エンジニアリングと学習アルゴリズムの側面を通じて、これらのバイアスを軽減する戦略について議論する。
論文 参考訳(メタデータ) (2024-10-03T18:42:07Z) - Source-Aware Training Enables Knowledge Attribution in Language Models [81.13048060332775]
固有のソースの引用は透明性、解釈可能性、検証可能性を高めることができる。
我々のトレーニングレシピは、モデルの難易度に大きな影響を与えることなく、事前学習データへの忠実な帰属を可能にする。
論文 参考訳(メタデータ) (2024-04-01T09:39:38Z) - When Do LLMs Need Retrieval Augmentation? Mitigating LLMs' Overconfidence Helps Retrieval Augmentation [66.01754585188739]
大規模言語モデル(LLM)は、特定の知識を持っていないことを知るのが困難であることが判明した。
Retrieval Augmentation (RA)はLLMの幻覚を緩和するために広く研究されている。
本稿では,LLMの知識境界に対する認識を高めるためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T04:57:19Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Know Where to Go: Make LLM a Relevant, Responsible, and Trustworthy
Searcher [10.053004550486214]
大規模言語モデル(LLM)は、Web検索において関連性を改善し、直接的な回答を提供する可能性を示している。
課題は、生成された結果の信頼性と、コントリビューションソースの信頼性にある。
本稿では,LLMの知識を活用してクエリとオンラインソースの直接リンクを促進する新しい生成検索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T03:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。