論文の概要: Along the Margins: Marginalized Communities' Ethical Concerns about
Social Platforms
- arxiv url: http://arxiv.org/abs/2304.08882v2
- Date: Tue, 6 Feb 2024 12:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 21:02:57.221780
- Title: Along the Margins: Marginalized Communities' Ethical Concerns about
Social Platforms
- Title(参考訳): マージンに沿う : マージン化コミュニティの社会プラットフォームに関する倫理的懸念
- Authors: Lauren Olson and Emitz\'a Guzm\'an and Florian Kunneman
- Abstract要約: 我々は、社会プラットフォームに関する地域社会の倫理的懸念を特定した。
最近のプラットフォームへの悪影響は、ソフトウェアチームがユーザーの懸念よりも株主の関心を優先していることを示している。
地域社会の倫理的懸念は、主に差別や表現の誤りに反することがわかった。
- 参考スコア(独自算出の注目度): 3.357853336791203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we identified marginalized communities' ethical concerns about
social platforms. We performed this identification because recent platform
malfeasance indicates that software teams prioritize shareholder concerns over
user concerns. Additionally, these platform shortcomings often have devastating
effects on marginalized populations. We first scraped 586 marginalized
communities' subreddits, aggregated a dataset of their social platform mentions
and manually annotated mentions of ethical concerns in these data. We
subsequently analyzed trends in the manually annotated data and tested the
extent to which ethical concerns can be automatically classified by means of
natural language processing (NLP). We found that marginalized communities'
ethical concerns predominantly revolve around discrimination and
misrepresentation, and reveal deficiencies in current software development
practices. As such, researchers and developers could use our work to further
investigate these concerns and rectify current software flaws.
- Abstract(参考訳): 本稿では,地域社会の社会的プラットフォームに対する倫理的懸念を明らかにする。
最近のプラットフォームへの悪影響は、ソフトウェアチームがユーザーの懸念よりも株主の関心を優先していることを示しています。
さらに、これらのプラットフォームの欠点は、しばしば疎外化人口に壊滅的な影響を及ぼす。
最初に586の辺境化コミュニティのサブレディットを解体し、彼らのソーシャルプラットフォームに関する言及のデータセットを集約し、これらのデータに倫理的懸念について手動で言及しました。
その後,手作業による注釈データの傾向を分析し,自然言語処理(nlp)によって倫理的関心事を自動的に分類できる範囲を検証した。
コミュニティの倫理的懸念は、差別や表現の誤りを主に取り除き、現在のソフトウェア開発プラクティスの欠陥を明らかにします。
そのため、研究者や開発者は、我々の研究を利用してこれらの懸念をさらに調査し、現在のソフトウェア欠陥を是正することができる。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Crossing Margins: Intersectional Users' Ethical Concerns about Software [3.0830895408549583]
本研究の目的は,交差点利用者のソフトウェア関連視点に関する研究のギャップを埋めることである。
ソフトウェアアプリケーションについて議論する700以上の交差点のサブレディットからの投稿を収集しました。
その結果,交差するコミュニティでは,サイバーいじめ,不適切な内容,差別に関連する批判的苦情が報告されている。
論文 参考訳(メタデータ) (2024-10-10T16:33:05Z) - Ethical Challenges in Computer Vision: Ensuring Privacy and Mitigating Bias in Publicly Available Datasets [0.0]
本稿では,コンピュータビジョン技術の創造と展開に関する倫理的問題に光を当てることを目的とする。
コンピュータビジョンは医療、セキュリティシステム、貿易など多くの産業において重要なツールとなっている。
論文 参考訳(メタデータ) (2024-08-31T00:59:29Z) - The Call for Socially Aware Language Technologies [94.6762219597438]
NLPが機能する社会環境の要因、文脈、意味の認識の欠如である。
我々は、NLPが社会意識を発達させる上で大きな課題が残っており、この分野の新しい時代の始まりであると主張している。
論文 参考訳(メタデータ) (2024-05-03T18:12:39Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - A Keyword Based Approach to Understanding the Overpenalization of
Marginalized Groups by English Marginal Abuse Models on Twitter [2.9604738405097333]
有害なコンテンツ検出モデルは、疎外されたグループからのコンテンツに対する偽陽性率が高い傾向にある。
テキストベースモデルに関連付けられた潜在的害の重症度を検出・測定するための原則的アプローチを提案する。
提案手法を適用して,Twitterの英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・日本語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語
論文 参考訳(メタデータ) (2022-10-07T20:28:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - ETHOS: an Online Hate Speech Detection Dataset [6.59720246184989]
本稿では,YouTube と Reddit のコメントに基づいて,Final-Eight クラウドソーシングプラットフォームを用いて検証した,バイナリとマルチラベルの2種類のテキストデータセットである 'ETHOS' を紹介する。
我々の重要な前提は、そのような時間のかかるプロセスから少量のラベル付きデータを入手しても、調査対象の素材でヘイトスピーチの発生を保証できるということである。
論文 参考訳(メタデータ) (2020-06-11T08:59:57Z) - Whose Side are Ethics Codes On? Power, Responsibility and the Social
Good [0.0]
我々は、消費者を高揚させる倫理規定が同時に脆弱な人口のニーズに従属する可能性があると論じる。
データ技術における有害な露光を説明するために,デジタルディファレンシャル脆弱性の概念を導入する。
論文 参考訳(メタデータ) (2020-02-04T22:05:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。