論文の概要: Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking
- arxiv url: http://arxiv.org/abs/2402.05880v2
- Date: Sat, 10 Feb 2024 17:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 19:53:47.793357
- Title: Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking
- Title(参考訳): 生成型Echoチャンバー?
llmを用いた検索システムが多様な情報検索に与える影響
- Authors: Nikhil Sharma, Q. Vera Liao, Ziang Xiao
- Abstract要約: 大規模言語モデル(LLM)を利用した対話型検索システムは、すでに数億人の人々が利用している。
評価バイアスのあるLCMが, ユーザの視点を補強したり, 異議を申し立てたりすることで, 効果が変化するか, どのように変化するかを検討する。
- 参考スコア(独自算出の注目度): 49.02867094432589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) powered conversational search systems have
already been used by hundreds of millions of people, and are believed to bring
many benefits over conventional search. However, while decades of research and
public discourse interrogated the risk of search systems in increasing
selective exposure and creating echo chambers -- limiting exposure to diverse
opinions and leading to opinion polarization, little is known about such a risk
of LLM-powered conversational search. We conduct two experiments to
investigate: 1) whether and how LLM-powered conversational search increases
selective exposure compared to conventional search; 2) whether and how LLMs
with opinion biases that either reinforce or challenge the user's view change
the effect. Overall, we found that participants engaged in more biased
information querying with LLM-powered conversational search, and an opinionated
LLM reinforcing their views exacerbated this bias. These results present
critical implications for the development of LLMs and conversational search
systems, and the policy governing these technologies.
- Abstract(参考訳): 大規模言語モデル(llms)による対話型検索システムは、すでに数億人の人々が使用しており、従来の検索に多くの利点をもたらすと考えられている。
しかし、何十年にもわたっての研究と公衆の議論は、選択的な露出の増加とエコーチャンバーの作成において、検索システムのリスクを疑問視し、様々な意見への露出を制限し、意見の偏化につながる一方で、LLMによる会話検索のリスクについてはほとんど知られていない。
調査する実験は2つある。
1)従来の検索と比較してLLMによる会話検索が選択的露出を増加させるか否か
2) LLM の意見バイアスは, ユーザの見解を補強するか, 異議を唱えるかによって影響が変化する。
全体として、参加者はllmによる会話検索でより偏りのある情報クエリに取り組み、見解を補強する意見のllmがこのバイアスを悪化させたことが分かりました。
これらの結果は,llmおよび対話型検索システムの開発,およびこれらの技術を管理する政策に重要な意味を持つ。
関連論文リスト
- Retrieving Implicit and Explicit Emotional Events Using Large Language Models [4.245183693179267]
大規模言語モデル (LLM) は近年,その優れたパフォーマンスから注目されている。
本研究では,LLMのコモンセンスにおける感情検索能力について検討する。
論文 参考訳(メタデータ) (2024-10-24T19:56:28Z) - Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - AI Can Be Cognitively Biased: An Exploratory Study on Threshold Priming in LLM-Based Batch Relevance Assessment [37.985947029716016]
大規模言語モデル(LLM)は高度な理解能力を示しているが、トレーニングデータから人間のバイアスを継承する可能性がある。
関連判定におけるしきい値プライミング効果の影響について検討した。
論文 参考訳(メタデータ) (2024-09-24T12:23:15Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Factuality of Large Language Models: A Survey [29.557596701431827]
我々は、主要な課題とその原因を特定することを目的として、既存の研究を批判的に分析する。
オープンエンドテキスト生成における事実自動評価の障害を解析する。
論文 参考訳(メタデータ) (2024-02-04T09:36:31Z) - Negotiating with LLMS: Prompt Hacks, Skill Gaps, and Reasoning Deficits [1.4003044924094596]
LLMとの価格交渉において,全年齢層で40人以上の個人を対象とするユーザスタディを実施している。
交渉された価格が、LLMと効果的に相互作用する際のリテラシーのギャップを指摘し、人類が幅広い範囲で達成したことを示す。
論文 参考訳(メタデータ) (2023-11-26T08:44:58Z) - Quantifying the Impact of Large Language Models on Collective Opinion
Dynamics [7.0012506428382375]
我々は、大言語モデル(LLM)の意見をエンコードするために、意見ネットワークダイナミクスモデルを作成する。
その結果, LLMのアウトプットは, 集団的意見差に一意かつ肯定的な影響を及ぼすことが明らかとなった。
我々の実験は、反対/中立/ランダムの意見を持つ追加のエージェントを導入することで、バイアスや有害なアウトプットの影響を効果的に軽減できることを示した。
論文 参考訳(メタデータ) (2023-08-07T05:45:17Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。