論文の概要: Filter bubbles and affective polarization in user-personalized large
language model outputs
- arxiv url: http://arxiv.org/abs/2311.14677v1
- Date: Tue, 31 Oct 2023 18:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 14:04:28.377898
- Title: Filter bubbles and affective polarization in user-personalized large
language model outputs
- Title(参考訳): ユーザ個人化大言語モデル出力におけるフィルタバブルと感情分極
- Authors: Tomo Lazovich
- Abstract要約: 大規模言語モデル(LLM)は、個々のユーザに対して、モデル出力のパーソナライズを増大させる要因となっている。
事実質問の前にユーザの政治的関連性によって,主要な大規模言語モデルであるChatGPT-3.5をいかに促進させるかを検討する。
- 参考スコア(独自算出の注目度): 0.15540058359482856
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Echoing the history of search engines and social media content rankings, the
advent of large language models (LLMs) has led to a push for increased
personalization of model outputs to individual users. In the past, personalized
recommendations and ranking systems have been linked to the development of
filter bubbles (serving content that may confirm a user's existing biases) and
affective polarization (strong negative sentiment towards those with differing
views). In this work, we explore how prompting a leading large language model,
ChatGPT-3.5, with a user's political affiliation prior to asking factual
questions about public figures and organizations leads to differing results. We
observe that left-leaning users tend to receive more positive statements about
left-leaning political figures and media outlets, while right-leaning users see
more positive statements about right-leaning entities. This pattern holds
across presidential candidates, members of the U.S. Senate, and media
organizations with ratings from AllSides. When qualitatively evaluating some of
these outputs, there is evidence that particular facts are included or excluded
based on the user's political affiliation. These results illustrate that
personalizing LLMs based on user demographics carry the same risks of affective
polarization and filter bubbles that have been seen in other personalized
internet technologies. This ``failure mode" should be monitored closely as
there are more attempts to monetize and personalize these models.
- Abstract(参考訳): 検索エンジンやソーシャルメディアのコンテンツランキングの歴史を振り返って、大規模言語モデル(LLM)の出現は、個々のユーザーに対してモデル出力のパーソナライズを拡大させるきっかけとなった。
これまで、パーソナライズされたレコメンデーションとランキングシステムは、フィルターバブル(ユーザの既存のバイアスを確認するコンテンツを提供する)と感情分極(異なる視点を持つ人々に対する強い否定的な感情)の開発に関連付けられてきた。
本研究は、公的人物や組織に関する事実的質問に先立って、ユーザの政治的協力を得て、主要な大規模言語モデルであるchatgpt-3.5をいかに促すかを検討する。
左利きのユーザーは、左利きの政治人物やメディアについてより肯定的な発言を受ける傾向にあり、右利きのユーザーは右利きの団体についてより肯定的な発言を見る傾向にある。
このパターンは、大統領選挙の候補者、上院の議員、およびあらゆる方面からの格付けを持つメディア組織にまたがっている。
これらのアウトプットを質的に評価する場合、特定の事実がユーザーの政治的関連に基づいて含まれたり排除されたりする証拠がある。
これらの結果から,LLMのパーソナライズには,他のパーソナライズされたインターネット技術で見られる感情分極やフィルタバブルのリスクが伴うことが示された。
この`failure mode' は、これらのモデルを収益化しパーソナライズしようとする試みが増えているため、注意深く監視されるべきである。
関連論文リスト
- Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Dynamics of Ideological Biases of Social Media Users [0.0]
オンラインプラットフォーム全体の世論グループの進化は,世論を抱きたいという欲求に支えられていることを示す。
われわれはTwitterとParlerという2つのソーシャルメディアに焦点を当て、ユーザーの政治的偏見を追跡した。
論文 参考訳(メタデータ) (2023-09-27T19:39:07Z) - The Face of Populism: Examining Differences in Facial Emotional
Expressions of Political Leaders Using Machine Learning [57.70351255180495]
深層学習に基づくコンピュータビジョンのアルゴリズムを、15カ国の政治指導者を描いた220本のYouTubeビデオのサンプルに適用する。
ポピュリスト・レトリックの度合いが異なるリーダー群間での否定的感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Political Polarization in Online News Consumption [14.276551496332154]
投票行動によって測定されるように、政治的偏極は上昇しているようだ。
ここ数年の研究は、分極の原動力としてのWebの役割に焦点を当ててきた。
オンラインニュース消費は、ユーザーが自身の政治的傾きに合わせたニュースソースを訪問することが、他のニュースソースの訪問よりもかなり長いという偏極パターンに従うことを示す。
論文 参考訳(メタデータ) (2021-04-09T22:35:46Z) - Exploring Polarization of Users Behavior on Twitter During the 2019
South American Protests [15.065938163384235]
われわれは、2019年に南アメリカのいくつかの国を麻痺させた抗議活動について、異なる文脈でTwitter上で偏極を探っている。
政治家のツイートやハッシュタグキャンペーンに対するユーザの支持を(反対かにかかわらず)抗議に対する明確なスタンスで活用することにより、何百万人ものユーザーによる弱いラベル付きスタンスデータセットを構築します。
イベント中の「フィルターバブル」現象の実証的証拠は、ユーザベースがスタンスの観点から均質であるだけでなく、異なるクラスタのメディアからユーザが移行する確率も低いことを示すものである。
論文 参考訳(メタデータ) (2021-04-05T07:13:18Z) - Right and left, partisanship predicts (asymmetric) vulnerability to
misinformation [71.46564239895892]
我々は、Twitter上でのニュース共有行動を研究することにより、パルチザン、エコーチャンバー、およびオンライン誤情報に対する脆弱性の関係を分析する。
誤情報に対する脆弱性は、左派と右派の両方のユーザーの党派の影響を強く受けている。
論文 参考訳(メタデータ) (2020-10-04T01:36:14Z) - Stop Tracking Me Bro! Differential Tracking Of User Demographics On
Hyper-partisan Websites [5.690539268996364]
我々は、特定のパーティーラインのウェブサイトを訪問する際に、光を遮り、ユーザに与えるトラッキングの潜在的な違いを計測する第一歩を踏み出します。
この手法により、性別や年齢などの特定の属性を持つユーザペルソナを作成し、閲覧行動を自動化することができる。
我々は、556の超党派ウェブサイトで9人のペルソナをテストし、右派ウェブサイトは左派ウェブサイトよりもユーザーを強く追跡する傾向にあることを発見した。
論文 参考訳(メタデータ) (2020-02-03T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。