論文の概要: Authenticity and exclusion: social media algorithms and the dynamics of belonging in epistemic communities
- arxiv url: http://arxiv.org/abs/2407.08552v2
- Date: Mon, 21 Oct 2024 16:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 22:17:54.899491
- Title: Authenticity and exclusion: social media algorithms and the dynamics of belonging in epistemic communities
- Title(参考訳): 正当性と排他性:ソーシャルメディアアルゴリズムとてんかんコミュニティに属するダイナミックス
- Authors: Nil-Jana Akpinar, Sina Fazelpour,
- Abstract要約: 本稿では,ソーシャルメディアプラットフォームとそのレコメンデーションアルゴリズムが,少数派の研究者の専門的視認性と機会をいかに形成するかを検討する。
まず、これらのアルゴリズムは少数派の研究者の専門的な可視性を著しく損なう。
第二に、これらの少数派グループの中では、アルゴリズムは多数派に近づき、プロの可視性を犠牲にして同化を動機付ける。
- 参考スコア(独自算出の注目度): 0.8287206589886879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent philosophical work has explored how the social identity of knowers influences how their contributions are received, assessed, and credited. However, a critical gap remains regarding the role of technology in mediating and enabling communication within today's epistemic communities. This paper addresses this gap by examining how social media platforms and their recommendation algorithms shape the professional visibility and opportunities of researchers from minority groups. Using agent-based simulations, we investigate this question with respect to components of a widely used recommendation algorithm, and uncover three key patterns: First, these algorithms disproportionately harm the professional visibility of researchers from minority groups, creating systemic patterns of exclusion. Second, within these minority groups, the algorithms result in greater visibility for users who more closely resemble the majority group, incentivizing assimilation at the cost of professional invisibility. Third, even for topics that strongly align with minority identities, content created by minority researchers is less visible to the majority than similar content produced by majority users. Importantly, these patterns emerge, even though individual engagement with professional content is independent of group identity. These findings have significant implications for philosophical discussions on epistemic injustice and exclusion, and for policy proposals aimed at addressing these harms. More broadly, they call for a closer examination of the pervasive, but often neglected role of AI and data-driven technologies in shaping today's epistemic communities.
- Abstract(参考訳): 近年の哲学的な研究は、知識人の社会的アイデンティティが貢献の受け取り、評価、評価にどのように影響するかを探求してきた。
しかし、今日のてんかんコミュニティにおけるコミュニケーションの仲介・実現における技術の役割について、重要なギャップが残っている。
本稿では,ソーシャルメディアプラットフォームとその推薦アルゴリズムが,少数派の研究者の専門的視認性と機会をいかに形成するかを検討することで,このギャップに対処する。
まず、これらのアルゴリズムは少数派の研究者の専門的な視認性を損なうことなく、排除の体系的なパターンを創出する。
第二に、これらの少数派グループの中では、アルゴリズムは多数派に近づき、プロの可視性を犠牲にして同化を動機付ける。
第3に、少数派の研究者が作成したコンテンツは、少数派のユーザーが作成した類似のコンテンツよりも、多数派にはあまり見えない。
重要なことは、プロのコンテンツに対する個人的関与がグループアイデンティティとは無関係であるにもかかわらず、これらのパターンが出現する。
これらの知見は、疫学的不正と排除に関する哲学的議論や、これらの害に対処するための政策提案に重要な意味を持つ。
より広い範囲で、彼らは広範に広まるものの、今日のてんかんのコミュニティを形成する上でのAIとデータ駆動技術の役割を無視することが多い。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - From Melting Pots to Misrepresentations: Exploring Harms in Generative AI [3.167924351428519]
GeminiやGPTといった先進的な世代モデルにおける差別傾向に関する懸念が続いている。
メディア表現の多様化を求める声が広まってはいるものの、人種や民族の少数派は、AIの文脈内で永続的な歪曲、ステレオタイピング、無視に直面し続けている。
論文 参考訳(メタデータ) (2024-03-16T02:29:42Z) - Surveying (Dis)Parities and Concerns of Compute Hungry NLP Research [75.84463664853125]
我々は,3つのトピック,すなわち環境影響,株式,およびピアレビューへの影響に関する懸念を定量化するための最初の試みを提供する。
我々は、高齢者、アカデミック、産業に関して、異なるグループと異なるグループ内の既存の(異なる)格差を捉えます。
私たちは、発見された格差を軽減するためのレコメンデーションを考案しました。
論文 参考訳(メタデータ) (2023-06-29T12:44:53Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Estimating Topic Exposure for Under-Represented Users on Social Media [25.963970325207892]
この研究は、観察されたデータに対する参加者の貢献を強調することに重点を置いている。
これらのユーザの行動分析の最初のステップは、公開されているが関与していないトピックを見つけることです。
本稿では,これらのユーザを特定し,トピックの露出を推定する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T19:37:41Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Two-Face: Adversarial Audit of Commercial Face Recognition Systems [6.684965883341269]
コンピュータビジョンの応用は少数派に対して偏見がちで、不公平で社会的、政治的結果に関係している。
我々は、複数のシステムやデータセットに対する広範囲な敵監査を行い、多くの観察を行った。
本稿は、これらの観察を踏まえて、より広範な社会的影響と、この問題を総合的に扱う方法についてのいくつかの提案から締めくくった。
論文 参考訳(メタデータ) (2021-11-17T14:21:23Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。