論文の概要: Simulating Social Media Using Large Language Models to Evaluate
Alternative News Feed Algorithms
- arxiv url: http://arxiv.org/abs/2310.05984v1
- Date: Thu, 5 Oct 2023 18:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 03:55:41.888921
- Title: Simulating Social Media Using Large Language Models to Evaluate
Alternative News Feed Algorithms
- Title(参考訳): 大規模言語モデルを用いたソーシャルメディアのシミュレーションによる代替ニュースフィードアルゴリズムの評価
- Authors: Petter T\"ornberg, Diliara Valeeva, Justus Uitermark, Christopher Bail
- Abstract要約: ソーシャルメディアはしばしば、有害な会話を増幅し、建設的な会話を妨げていると批判されている。
本稿では、ソーシャルメディアのシミュレーションが、異なるニュースフィードアルゴリズムがオンライン会話の質をいかに形成するかを研究するのに役立つかどうかを問う。
- 参考スコア(独自算出の注目度): 8.602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media is often criticized for amplifying toxic discourse and
discouraging constructive conversations. But designing social media platforms
to promote better conversations is inherently challenging. This paper asks
whether simulating social media through a combination of Large Language Models
(LLM) and Agent-Based Modeling can help researchers study how different news
feed algorithms shape the quality of online conversations. We create realistic
personas using data from the American National Election Study to populate
simulated social media platforms. Next, we prompt the agents to read and share
news articles - and like or comment upon each other's messages - within three
platforms that use different news feed algorithms. In the first platform, users
see the most liked and commented posts from users whom they follow. In the
second, they see posts from all users - even those outside their own network.
The third platform employs a novel "bridging" algorithm that highlights posts
that are liked by people with opposing political views. We find this bridging
algorithm promotes more constructive, non-toxic, conversation across political
divides than the other two models. Though further research is needed to
evaluate these findings, we argue that LLMs hold considerable potential to
improve simulation research on social media and many other complex social
settings.
- Abstract(参考訳): ソーシャルメディアはしばしば、有害な会話を増幅し、建設的な会話を妨げていると批判されている。
しかし、より良い会話を促進するためのソーシャルメディアプラットフォームを設計することは本質的に難しい。
本稿では,大規模言語モデル(llm)とエージェントベースモデリングの組み合わせによってソーシャルメディアをシミュレートすることで,異なるニュースフィードアルゴリズムがオンライン会話の品質をどのように形成するかを研究者が研究できるかどうかを問う。
アメリカの選挙調査のデータを使って、リアルなパーソナラを作り、シミュレーションされたソーシャルメディアプラットフォームを作ります。
次に、異なるニュースフィードアルゴリズムを使用する3つのプラットフォーム内で、エージェントにニュース記事を読んだり共有したり、お互いのメッセージにコメントしたりするように促します。
最初のプラットフォームでは、ユーザーはフォローしているユーザーから最も好まれ、コメントされた投稿を見る。
第二に、彼らはすべてのユーザーからの投稿を見る ― 自分のネットワークの外でさえ。
第3のプラットフォームは、反対の政治的見解を持つ人々が好む投稿を強調する、新しい「ブリッジング」アルゴリズムを採用している。
このブリッジングアルゴリズムは、他の2つのモデルよりも、より建設的で非有害な会話を促進する。
これらの知見を評価するためにはさらなる研究が必要であるが、LLMはソーシャルメディアやその他の複雑な社会環境におけるシミュレーション研究を改善する大きな可能性を秘めている。
関連論文リスト
- Echo Chambers in the Age of Algorithms: An Audit of Twitter's Friend Recommender System [2.8186456204337746]
我々はTwitterの友達推薦システムのアルゴリズムによる監査を行う。
われわれは2022年の中間選挙で、最初は左右の米国の政治家をフォローする自動Twitterアカウントを作成している。
我々は,レコメンデーションアルゴリズムに従ってアカウントをエコーチャンバーに構造的に類似した密集した相互近隣に導く一方で,リコメンデーターはユーザのネットワークの政治的均質性を損なうことも見出した。
論文 参考訳(メタデータ) (2024-04-09T16:12:22Z) - Chatbot Arena: An Open Platform for Evaluating LLMs by Human Preference [48.99117537559644]
人間の好みに基づいた大規模言語モデル(LLM)を評価するオープンプラットフォームであるArenaを紹介する。
本手法は,クラウドソーシングを通じて,多種多様なユーザベースからのインプットを活用する。
本稿では,このプラットフォームについて述べるとともに,これまでに収集したデータを分析し,実際に使用している統計的手法について説明する。
論文 参考訳(メタデータ) (2024-03-07T01:22:38Z) - InfoPattern: Unveiling Information Propagation Patterns in Social Media [59.67008841974645]
InfoPatternは、言語と人間のイデオロギーの相互作用に焦点を当てている。
1) 反対のイデオロギーコミュニティからの反対反応をシミュレートするレッドチーム,(2) メッセージ中の政治的感情を識別するスタンス検出,(3) 情報伝播グラフの発見により,様々なコミュニティにおけるクレームの進化が時間とともに明らかにされる。
論文 参考訳(メタデータ) (2023-11-27T09:12:35Z) - Exploring Embeddings for Measuring Text Relatedness: Unveiling
Sentiments and Relationships in Online Comments [1.7230140898679147]
本稿では,様々なソーシャルメディアプラットフォームにおけるコメント間の感情的・意味的関係について検討する。
単語の埋め込みを使って文や文書のコンポーネントを分析する。
我々の分析は、オンラインコメントの相互接続性をより深く理解し、大きな相互接続脳として機能するインターネットの概念を調査する。
論文 参考訳(メタデータ) (2023-09-15T04:57:23Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Analysing Social Media Network Data with R: Semi-Automated Screening of
Users, Comments and Communication Patterns [0.0]
ソーシャルメディアプラットフォーム上でのコミュニケーションは、社会に広まりつつある。
フェイクニュース、ヘイトスピーチ、急進的要素は、この現代的なコミュニケーションの一部です。
これらのメカニズムとコミュニケーションパターンの基本的な理解は、負のコミュニケーション形態に対抗するのに役立つ。
論文 参考訳(メタデータ) (2020-11-26T14:52:01Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。