論文の概要: "Y'all are just too sensitive": A computational ethics approach to
understanding how prejudice against marginalized communities becomes
epistemic belief
- arxiv url: http://arxiv.org/abs/2207.01017v1
- Date: Sun, 3 Jul 2022 12:01:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:35:51.872850
- Title: "Y'all are just too sensitive": A computational ethics approach to
understanding how prejudice against marginalized communities becomes
epistemic belief
- Title(参考訳): 「みんな過敏すぎる」--辺境社会に対する偏見が認識論的信念になるかを理解するための計算倫理的アプローチ
- Authors: Johannah Sprinz
- Abstract要約: 本論では, 個別に拘束された信念に基づいて, マイクロアグレッションの行為を犯し, 相互作用しうる, 疎外化・非マルジナイズドエージェントからなるシミュレートされた社会について考察する。
マイクロアグレッションを目撃するエージェントは、そのようなマイクロアグレッションを放棄、無視、または非難する可能性があるため、加害者の有罪判決に影響を与える可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Members of marginalized communities are often accused of being "too
sensitive" when subjected to supposedly harmless acts of microaggression. This
paper explores a simulated society consisting of marginalized and
non-marginalized agents who interact and may, based on their individually held
convictions, commit acts of microaggressions. Agents witnessing a
microaggression might condone, ignore or condemn such microaggressions, thus
potentially influencing a perpetrator's conviction. A prototype model has been
implemented in NetLogo, and possible applications are briefly discussed.
- Abstract(参考訳): 辺境の地域社会のメンバーは、無害なマイクロ攻撃行為を受けるとしばしば「過敏すぎる」と非難される。
本論では, 個別に拘束された信念に基づいて, マイクロアグレッションの行為を犯し, 相互作用しうる, 疎外化・非マルジナイズドエージェントからなる模擬社会について考察する。
マイクロアグレッシブを目撃するエージェントは、そのようなマイクロアグレッシブを軽視し、無視し、または非難し、結果として加害者の有罪判決に影響を及ぼす可能性がある。
NetLogoでプロトタイプモデルが実装され、アプリケーションの可能性について簡単に議論されている。
関連論文リスト
- Authenticity and exclusion: social media algorithms and the dynamics of belonging in epistemic communities [0.8287206589886879]
本稿では,ソーシャルメディアプラットフォームとそのレコメンデーションアルゴリズムが,少数派の研究者の専門的視認性と機会をいかに形成するかを検討する。
まず、これらのアルゴリズムは少数派の研究者の専門的な可視性を著しく損なう。
第二に、これらの少数派グループの中では、アルゴリズムは多数派に近づき、プロの可視性を犠牲にして同化を動機付ける。
論文 参考訳(メタデータ) (2024-07-11T14:36:58Z) - Epistemological Bias As a Means for the Automated Detection of Injustices in Text [0.0]
不公平は、誰かが不公平な治療を受けたり、権利が侵害されたり、しばしばステレオタイプのような暗黙の偏見や偏見が原因で起こる。
本稿では,微細調整されたBERTに基づくバイアス検出モデル,2つのステレオタイプ検出モデル,およびテキストにおける不正の自動検出を支援するための辞書ベースのアプローチを併用した新しいフレームワークについて述べる。
我々は,データ量が多い場合でも,不正を検出するためにフレームワークをどのように適用できるかを実証的質的研究を行ない,議論する。
論文 参考訳(メタデータ) (2024-07-08T16:38:31Z) - MOSSBench: Is Your Multimodal Language Model Oversensitive to Safe Queries? [70.77691645678804]
人間は認知の歪みに傾向があり、特定の刺激に対する過大な反応を引き起こす偏見のある思考パターンがある。
本稿では,高度マルチモーダル言語モデル (MLLM) が同様の傾向を示すことを示す。
既存のMLLMの過敏性を引き起こす3種類の刺激を同定する。
論文 参考訳(メタデータ) (2024-06-22T23:26:07Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - Along the Margins: Marginalized Communities' Ethical Concerns about
Social Platforms [3.357853336791203]
我々は、社会プラットフォームに関する地域社会の倫理的懸念を特定した。
最近のプラットフォームへの悪影響は、ソフトウェアチームがユーザーの懸念よりも株主の関心を優先していることを示している。
地域社会の倫理的懸念は、主に差別や表現の誤りに反することがわかった。
論文 参考訳(メタデータ) (2023-04-18T10:15:16Z) - A Keyword Based Approach to Understanding the Overpenalization of
Marginalized Groups by English Marginal Abuse Models on Twitter [2.9604738405097333]
有害なコンテンツ検出モデルは、疎外されたグループからのコンテンツに対する偽陽性率が高い傾向にある。
テキストベースモデルに関連付けられた潜在的害の重症度を検出・測定するための原則的アプローチを提案する。
提案手法を適用して,Twitterの英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・日本語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語
論文 参考訳(メタデータ) (2022-10-07T20:28:00Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - With False Friends Like These, Who Can Have Self-Knowledge? [26.582668429147777]
本稿では,過度な感度,すなわち誤分類例が容易に摂動できるという,興味深く,見過ごされがちな結果について考察する。
このような偽の友達があれば、パフォーマンスの悪いモデルは最先端のモデルのように振る舞うことができる。
デプロイ者が低臨界的なパフォーマンスを信頼し、実世界のアプリケーションで「よく機能する」モデルを使用すると、潜在的なセキュリティ上の懸念は良性のある環境でも現れます。
論文 参考訳(メタデータ) (2020-12-29T12:42:36Z) - "Nice Try, Kiddo": Investigating Ad Hominems in Dialogue Responses [87.89632038677912]
アドホミン攻撃(Ad hominem attack)とは、ある人物が保持している位置ではなく、ある人物の特徴を狙う攻撃である。
本稿では,アノテートされたデータセットを作成し,英語のTwitter投稿に対する人文・対話応答を解析するシステムを構築する。
以上の結果から,1)ヒトとダイアロGPTの両方からの反応は,辺縁化コミュニティに関する議論においてより多くのアドホミンを含むこと,2)訓練データ中の異なる量のアドホミンがアドホミンの生成に影響を及ぼしうること,3)アドホミン化を減らすためのデコード技術に制約があることが示唆された。
論文 参考訳(メタデータ) (2020-10-24T07:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。