論文の概要: In Agents We Trust, but Who Do Agents Trust? Latent Source Preferences Steer LLM Generations
- arxiv url: http://arxiv.org/abs/2602.15456v1
- Date: Tue, 17 Feb 2026 09:45:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.023198
- Title: In Agents We Trust, but Who Do Agents Trust? Latent Source Preferences Steer LLM Generations
- Title(参考訳): エージェントは信頼するが、エージェントは信頼するのだろうか?
- Authors: Mohammad Aflah Khan, Mahsa Amani, Soumi Das, Bishwamittra Ghosh, Qinyuan Wu, Krishna P. Gummadi, Manish Gupta, Abhilasha Ravichander,
- Abstract要約: 大規模言語モデル(LLM)は、オンラインプラットフォーム上の情報に対するインターフェースとして、ますます多くデプロイされている。
LLMは、ユーザーが受信した情報の特定の事例に注意を向け、他人を犠牲にすることで、利用者が受け取る情報を管理する。
いくつかのモデルは、常に強く予測可能なソースの好みを示す。
- 参考スコア(独自算出の注目度): 19.98336514529218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agents based on Large Language Models (LLMs) are increasingly being deployed as interfaces to information on online platforms. These agents filter, prioritize, and synthesize information retrieved from the platforms' back-end databases or via web search. In these scenarios, LLM agents govern the information users receive, by drawing users' attention to particular instances of retrieved information at the expense of others. While much prior work has focused on biases in the information LLMs themselves generate, less attention has been paid to the factors that influence what information LLMs select and present to users. We hypothesize that when information is attributed to specific sources (e.g., particular publishers, journals, or platforms), current LLMs exhibit systematic latent source preferences- that is, they prioritize information from some sources over others. Through controlled experiments on twelve LLMs from six model providers, spanning both synthetic and real-world tasks, we find that several models consistently exhibit strong and predictable source preferences. These preferences are sensitive to contextual framing, can outweigh the influence of content itself, and persist despite explicit prompting to avoid them. They also help explain phenomena such as the observed left-leaning skew in news recommendations in prior work. Our findings advocate for deeper investigation into the origins of these preferences, as well as for mechanisms that provide users with transparency and control over the biases guiding LLM-powered agents.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づくエージェントは、オンラインプラットフォーム上の情報に対するインターフェースとして、ますます多くデプロイされている。
これらのエージェントは、プラットフォームのバックエンドデータベースやWeb検索を通じて取得された情報をフィルタリング、優先順位付け、合成する。
これらのシナリオでは、LLMエージェントはユーザーが受信した情報の特定の事例にユーザーの注意を引いて他者を犠牲にすることで、ユーザが受け取る情報を管理する。
LLM自体が生み出す情報のバイアスに多くの先行研究が注がれてきたが、LLMがどの情報を選択し、ユーザに提示するかに影響を与える要因にはあまり注意が払われていない。
特定の情報源(例えば、特定の出版社、雑誌、プラットフォーム)に関連付けられている場合、現在のLCMは体系的な遅延ソース嗜好を示す、すなわち、ある情報源からの情報を他の情報源よりも優先する、という仮説を立てる。
6つのモデル提供者による12のLLMの制御実験により、合成タスクと実世界のタスクの両方にまたがって、複数のモデルが一貫して強く予測可能なソース嗜好を示すことがわかった。
これらの嗜好は、文脈的なフレーミングに敏感であり、コンテンツ自体の影響を上回り、それを避けるよう明示的に促しているにもかかわらず、継続することができる。
また、先行研究におけるニュースレコメンデーションにおいて、観察された左利きのスキューのような現象を説明するのにも役立つ。
本研究は,これらの嗜好の起源を深く研究し,LCMを主体とするエージェントのバイアスに対する透明性とコントロールをユーザに提供するメカニズムを提唱する。
関連論文リスト
- Whose Facts Win? LLM Source Preferences under Knowledge Conflicts [4.587118047944915]
そこで本研究では,言語間知識の衝突による大言語モデル(LLM)の解決にソースの嗜好がどのような影響を及ぼすかを検討する。
LLMは、人やソーシャルメディアの情報よりも、制度的に協調した情報を好む。
これらのソースの好みは、信頼性の低いソースからの情報を単に繰り返すことで逆転することができる。
論文 参考訳(メタデータ) (2026-01-07T09:35:35Z) - Are Large Language Models Sensitive to the Motives Behind Communication? [9.246336669308665]
大規模言語モデル(LLM)とAIエージェントは、人間の意図とインセンティブによって本質的にフレーム化された情報を処理する。
LLMが現実世界で有効であるためには、ソースのモチベーションを要因としてコンテンツの評価を批判的に行う必要がある。
我々は認知科学から制御された実験を用いて、LCMの行動が動機付けられた証言からの学習の合理的モデルと一致していることを検証する。
LLMの推論は、合理的なモデルをほとんど正確に追跡していないことが分かっています -- 一部には、警戒と関連する考慮を妨げている追加情報があるからです。
論文 参考訳(メタデータ) (2025-10-22T15:35:00Z) - How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - How LLMs Fail to Support Fact-Checking [4.918358353535447]
LLM(Large Language Models)は、オンラインの誤報を増幅するが、誤報に対処することを約束する。
我々は、政治的誤報に対処する3つのLDM(ChatGPT、Gemini、Claude)の能力を実証的に研究する。
以上の結果から,モデルが実際のニュースソースで回答を得るのに苦労し,左利きの情報源を引用する傾向が示唆された。
論文 参考訳(メタデータ) (2025-02-28T07:12:03Z) - The Extractive-Abstractive Spectrum: Uncovering Verifiability Trade-offs in LLM Generations [40.498553309980764]
情報共有ツールの妥当性と実用性の間の相互作用について検討する。
ユーザは,大規模言語モデルよりも検索エンジンの方が高いクエリを好んでいることがわかった。
論文 参考訳(メタデータ) (2024-11-26T12:34:52Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。