論文の概要: Unfair Mistakes on Social Media: How Demographic Characteristics influence Authorship Attribution
- arxiv url: http://arxiv.org/abs/2510.19708v1
- Date: Wed, 22 Oct 2025 15:57:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.124513
- Title: Unfair Mistakes on Social Media: How Demographic Characteristics influence Authorship Attribution
- Title(参考訳): ソーシャルメディアにおける不公平な誤解 : デモグラフィック的特徴がオーサリング属性にどのように影響するか
- Authors: Jasmin Wyss, Rebekah Overdorf,
- Abstract要約: ソックパペット検出などのオンラインコンテキストでは、オーサリングの属性技術がますます使用されている。
このような手法のバイアスは、偽の告発、アカウントの禁止、プライバシー侵害が特定の人口層からユーザーに影響を与える可能性がある。
我々は、性別、母国語、年齢に対する偏見に対する著者の帰属を体系的に監査する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Authorship attribution techniques are increasingly being used in online contexts such as sock puppet detection, malicious account linking, and cross-platform account linking. Yet, it is unknown whether these models perform equitably across different demographic groups. Bias in such techniques could lead to false accusations, account banning, and privacy violations disproportionately impacting users from certain demographics. In this paper, we systematically audit authorship attribution for bias with respect to gender, native language, and age. We evaluate fairness in 3 ways. First, we evaluate how the proportion of users with a certain demographic characteristic impacts the overall classifier performance. Second, we evaluate if a user's demographic characteristics influence the probability that their texts are misclassified. Our analysis indicates that authorship attribution does not demonstrate bias across demographic groups in the closed-world setting. Third, we evaluate the types of errors that occur when the true author is removed from the suspect set, thereby forcing the classifier to choose an incorrect author. Unlike the first two settings, this analysis demonstrates a tendency to attribute authorship to users who share the same demographic characteristic as the true author. Crucially, these errors do not only include texts that deviate from a user's usual style, but also those that are very close to the author's average. Our results highlight that though a model may appear fair in the closed-world setting for a performant classifier, this does not guarantee fairness when errors are inevitable.
- Abstract(参考訳): ソックパペットの検出、悪意のあるアカウントリンク、クロスプラットフォームアカウントリンクなど、オンラインコンテキストにおいて、オーサリングの属性技術がますます使用されている。
しかし、これらのモデルが異なる人口集団で等しく機能するかどうかは不明である。
このような手法のバイアスは、偽の告発、アカウントの禁止、プライバシー侵害が特定の人口層からユーザーに影響を与える可能性がある。
本稿では,ジェンダー,母国語,年齢に対する偏見に対するオーサリングを体系的に評価する。
公平さを3つの点で評価する。
まず,人口統計学的特徴を有するユーザの比率が全体分類器の性能に与える影響を評価する。
第2に、ユーザの人口統計特性が、テキストが誤分類される確率に影響を与えるかどうかを評価する。
分析の結果,著者の帰属は閉世界における人口集団間の偏見を示さないことが示された。
第3に,真の著者が被疑者集合から削除された場合に発生する誤りの種類を評価し,誤記者を選択するよう強制する。
最初の2つの設定とは異なり、本分析は真の著者と同じ人口統計学的特徴を持つユーザに対して、著者の属性を示す傾向を示す。
これらのエラーには、ユーザの通常のスタイルから逸脱するテキストだけでなく、著者の平均に非常に近いテキストも含まれている。
この結果から, 性能分類器のクローズドワールド設定では, モデルがフェアに見えるかもしれないが, 誤差が避けられない場合の公平性は保証されないことがわかった。
関連論文リスト
- Quantifying Misattribution Unfairness in Authorship Attribution [18.055643489884552]
著者のミスアトリビューションは、現実の生活に重大な影響を及ぼす可能性がある。
著者帰属システムに対する標準的な評価基準は、この公正性の概念を明示的に考慮していない。
著者が書いたテキストの上位kにどのくらいの頻度でランク付けされているかに基づいて、単純な測度であるMisattribution Unfairness Index (MAUIk)を導入する。
論文 参考訳(メタデータ) (2025-06-02T23:28:24Z) - Where Fact Ends and Fairness Begins: Redefining AI Bias Evaluation through Cognitive Biases [77.3489598315447]
事実と公正の境界を識別することは有意義な公正性評価に不可欠である,と我々は主張する。
Fact-or-Fair は (i) 客観的なクエリを記述的, 事実に基づく判断, (ii) 主観的クエリを規範的, 公平性に基づく判断に整合させたベンチマークである。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - On Bias and Fairness in NLP: Investigating the Impact of Bias and Debiasing in Language Models on the Fairness of Toxicity Detection [7.297345802761503]
表現バイアス、選択バイアス、過剰増幅バイアスが研究されている。
過度増幅バイアスは毒性検出のタスクの公平性に対する最も影響の大きいバイアスであることを示す。
毒性検出のタスクの公平性を確保するためのガイドラインの一覧を紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:44:00Z) - Uncovering Bias in Face Generation Models [0.0]
GANと拡散モデルの最近の進歩により、高解像度の超現実的画像の作成が可能になった。
これらのモデルは特定の社会集団を誤って表現し、偏見を呈することがある。
この研究は、3つのアプローチに対するバイアスのきめ細かい理解のための空間をカバーおよび埋め込みする新しい分析である。
論文 参考訳(メタデータ) (2023-02-22T18:57:35Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - The Authors Matter: Understanding and Mitigating Implicit Bias in Deep
Text Classification [36.361778457307636]
ディープテキスト分類モデルは、特定の人口統計グループの著者によって書かれたテキストのバイアス結果を生成することができます。
本論文では,異なる人口集団の異なるテキスト分類タスクに暗黙のバイアスが存在することを示す。
そして、暗黙のバイアスの知識を深めるために、学習に基づく解釈方法を構築します。
論文 参考訳(メタデータ) (2021-05-06T16:17:38Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。