論文の概要: Authenticity and exclusion: social media recommendation algorithms and the dynamics of belonging in professional networks
- arxiv url: http://arxiv.org/abs/2407.08552v1
- Date: Thu, 11 Jul 2024 14:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 17:00:06.463867
- Title: Authenticity and exclusion: social media recommendation algorithms and the dynamics of belonging in professional networks
- Title(参考訳): 正当性と排他性:ソーシャルメディアレコメンデーションアルゴリズムとプロフェッショナルネットワークへの所属のダイナミクス
- Authors: Nil-Jana Akpinar, Sina Fazelpour,
- Abstract要約: ホモフィーは社会的相互作用に深く影響を与え、関連性、情報開示、社会交流のダイナミクスに影響を及ぼす。
異なる会話コンテキストが頻繁に崩壊するソーシャルメディアプラットフォームの性質と設計は、これらのダイナミクスにどのように影響するのか?
マイノリティグループによるプロ向けコンテンツの可視性の低下が示唆され,推奨アルゴリズムによって時間とともに悪化する傾向がみられた。
- 参考スコア(独自算出の注目度): 0.8287206589886879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homophily - the attraction of similarity - profoundly influences social interactions, affecting associations, information disclosure, and the dynamics of social exchanges. Organizational studies reveal that when professional and personal boundaries overlap, individuals from minority backgrounds often encounter a dilemma between authenticity and inclusion due to these homophily-driven dynamics: if they disclose their genuine interests, they risk exclusion from the broader conversation. Conversely, to gain inclusion, they might feel pressured to assimilate. How might the nature and design of social media platforms, where different conversational contexts frequently collapse, and the recommender algorithms that are at the heart of these platforms, which can prioritize content based on network structure and historical user engagement, impact these dynamics? In this paper, we employ agent-based simulations to investigate this question. Our findings indicate a decline in the visibility of professional content generated by minority groups, a trend that is exacerbated over time by recommendation algorithms. Within these minority communities, users who closely resemble the majority group tend to receive greater visibility. We examine the philosophical and design implications of our results, discussing their relevance to questions of informational justice, inclusion, and the epistemic benefits of diversity.
- Abstract(参考訳): ホモフィリー(Homophily) - 類似性の魅力 - は、社会的相互作用に大きな影響を与え、関連性、情報開示、社会交流のダイナミクスに影響を及ぼす。
組織的な研究によると、プロフェッショナルと個人の境界が重なり合うと、少数民族の個人は、これらのホモフィリー駆動のダイナミクスにより、真正性と包摂性の間にジレンマに遭遇する。
逆に、包摂性を得るためには、彼らは同化するようにプレッシャーをかけられるかもしれない。
異なる会話コンテキストが頻繁に崩壊するソーシャルメディアプラットフォームの性質と設計、そしてこれらのプラットフォームの中心にある推奨アルゴリズムは、ネットワーク構造と歴史的ユーザエンゲージメントに基づいてコンテンツを優先順位付けし、これらのダイナミクスに影響を与えるのか?
本稿では,エージェント・ベース・シミュレーションを用いてこの問題を考察する。
マイノリティグループによるプロ向けコンテンツの可視性の低下が示唆され,推奨アルゴリズムによって時間とともに悪化する傾向がみられた。
これらの少数派コミュニティの中では、多数派と密接に類似しているユーザは、より可視性が高い傾向にある。
本研究の結果の哲学的・設計的意味を考察し,情報正義,包摂性,および多様性の認識的利益に関する疑問との関連性について考察する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - From Melting Pots to Misrepresentations: Exploring Harms in Generative AI [3.167924351428519]
GeminiやGPTといった先進的な世代モデルにおける差別傾向に関する懸念が続いている。
メディア表現の多様化を求める声が広まってはいるものの、人種や民族の少数派は、AIの文脈内で永続的な歪曲、ステレオタイピング、無視に直面し続けている。
論文 参考訳(メタデータ) (2024-03-16T02:29:42Z) - Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research [75.84463664853125]
我々は,3つのトピック,すなわち環境影響,株式,およびピアレビューへの影響に関する懸念を定量化するための最初の試みを提供する。
我々は、高齢者、アカデミック、産業に関して、異なるグループと異なるグループ内の既存の(異なる)格差を捉えます。
私たちは、発見された格差を軽減するためのレコメンデーションを考案しました。
論文 参考訳(メタデータ) (2023-06-29T12:44:53Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Estimating Topic Exposure for Under-Represented Users on Social Media [25.963970325207892]
この研究は、観察されたデータに対する参加者の貢献を強調することに重点を置いている。
これらのユーザの行動分析の最初のステップは、公開されているが関与していないトピックを見つけることです。
本稿では,これらのユーザを特定し,トピックの露出を推定する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T19:37:41Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Two-Face: Adversarial Audit of Commercial Face Recognition Systems [6.684965883341269]
コンピュータビジョンの応用は少数派に対して偏見がちで、不公平で社会的、政治的結果に関係している。
我々は、複数のシステムやデータセットに対する広範囲な敵監査を行い、多くの観察を行った。
本稿は、これらの観察を踏まえて、より広範な社会的影響と、この問題を総合的に扱う方法についてのいくつかの提案から締めくくった。
論文 参考訳(メタデータ) (2021-11-17T14:21:23Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。