論文の概要: Filter bubbles and affective polarization in user-personalized large
language model outputs
- arxiv url: http://arxiv.org/abs/2311.14677v1
- Date: Tue, 31 Oct 2023 18:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 14:04:28.377898
- Title: Filter bubbles and affective polarization in user-personalized large
language model outputs
- Title(参考訳): ユーザ個人化大言語モデル出力におけるフィルタバブルと感情分極
- Authors: Tomo Lazovich
- Abstract要約: 大規模言語モデル(LLM)は、個々のユーザに対して、モデル出力のパーソナライズを増大させる要因となっている。
事実質問の前にユーザの政治的関連性によって,主要な大規模言語モデルであるChatGPT-3.5をいかに促進させるかを検討する。
- 参考スコア(独自算出の注目度): 0.15540058359482856
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Echoing the history of search engines and social media content rankings, the
advent of large language models (LLMs) has led to a push for increased
personalization of model outputs to individual users. In the past, personalized
recommendations and ranking systems have been linked to the development of
filter bubbles (serving content that may confirm a user's existing biases) and
affective polarization (strong negative sentiment towards those with differing
views). In this work, we explore how prompting a leading large language model,
ChatGPT-3.5, with a user's political affiliation prior to asking factual
questions about public figures and organizations leads to differing results. We
observe that left-leaning users tend to receive more positive statements about
left-leaning political figures and media outlets, while right-leaning users see
more positive statements about right-leaning entities. This pattern holds
across presidential candidates, members of the U.S. Senate, and media
organizations with ratings from AllSides. When qualitatively evaluating some of
these outputs, there is evidence that particular facts are included or excluded
based on the user's political affiliation. These results illustrate that
personalizing LLMs based on user demographics carry the same risks of affective
polarization and filter bubbles that have been seen in other personalized
internet technologies. This ``failure mode" should be monitored closely as
there are more attempts to monetize and personalize these models.
- Abstract(参考訳): 検索エンジンやソーシャルメディアのコンテンツランキングの歴史を振り返って、大規模言語モデル(LLM)の出現は、個々のユーザーに対してモデル出力のパーソナライズを拡大させるきっかけとなった。
これまで、パーソナライズされたレコメンデーションとランキングシステムは、フィルターバブル(ユーザの既存のバイアスを確認するコンテンツを提供する)と感情分極(異なる視点を持つ人々に対する強い否定的な感情)の開発に関連付けられてきた。
本研究は、公的人物や組織に関する事実的質問に先立って、ユーザの政治的協力を得て、主要な大規模言語モデルであるchatgpt-3.5をいかに促すかを検討する。
左利きのユーザーは、左利きの政治人物やメディアについてより肯定的な発言を受ける傾向にあり、右利きのユーザーは右利きの団体についてより肯定的な発言を見る傾向にある。
このパターンは、大統領選挙の候補者、上院の議員、およびあらゆる方面からの格付けを持つメディア組織にまたがっている。
これらのアウトプットを質的に評価する場合、特定の事実がユーザーの政治的関連に基づいて含まれたり排除されたりする証拠がある。
これらの結果から,LLMのパーソナライズには,他のパーソナライズされたインターネット技術で見られる感情分極やフィルタバブルのリスクが伴うことが示された。
この`failure mode' は、これらのモデルを収益化しパーソナライズしようとする試みが増えているため、注意深く監視されるべきである。
関連論文リスト
- Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Dynamics of Ideological Biases of Social Media Users [0.0]
オンラインプラットフォーム全体の世論グループの進化は,世論を抱きたいという欲求に支えられていることを示す。
われわれはTwitterとParlerという2つのソーシャルメディアに焦点を当て、ユーザーの政治的偏見を追跡した。
論文 参考訳(メタデータ) (2023-09-27T19:39:07Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Political Polarization in Online News Consumption [14.276551496332154]
投票行動によって測定されるように、政治的偏極は上昇しているようだ。
ここ数年の研究は、分極の原動力としてのWebの役割に焦点を当ててきた。
オンラインニュース消費は、ユーザーが自身の政治的傾きに合わせたニュースソースを訪問することが、他のニュースソースの訪問よりもかなり長いという偏極パターンに従うことを示す。
論文 参考訳(メタデータ) (2021-04-09T22:35:46Z) - Exploring Polarization of Users Behavior on Twitter During the 2019
South American Protests [15.065938163384235]
われわれは、2019年に南アメリカのいくつかの国を麻痺させた抗議活動について、異なる文脈でTwitter上で偏極を探っている。
政治家のツイートやハッシュタグキャンペーンに対するユーザの支持を(反対かにかかわらず)抗議に対する明確なスタンスで活用することにより、何百万人ものユーザーによる弱いラベル付きスタンスデータセットを構築します。
イベント中の「フィルターバブル」現象の実証的証拠は、ユーザベースがスタンスの観点から均質であるだけでなく、異なるクラスタのメディアからユーザが移行する確率も低いことを示すものである。
論文 参考訳(メタデータ) (2021-04-05T07:13:18Z) - Right and left, partisanship predicts (asymmetric) vulnerability to
misinformation [71.46564239895892]
我々は、Twitter上でのニュース共有行動を研究することにより、パルチザン、エコーチャンバー、およびオンライン誤情報に対する脆弱性の関係を分析する。
誤情報に対する脆弱性は、左派と右派の両方のユーザーの党派の影響を強く受けている。
論文 参考訳(メタデータ) (2020-10-04T01:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。