論文の概要: Quantifying Misattribution Unfairness in Authorship Attribution
- arxiv url: http://arxiv.org/abs/2506.02321v1
- Date: Mon, 02 Jun 2025 23:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.172322
- Title: Quantifying Misattribution Unfairness in Authorship Attribution
- Title(参考訳): 著者属性におけるミス貢献不公平の定量化
- Authors: Pegah Alipoormolabashi, Ajay Patel, Niranjan Balasubramanian,
- Abstract要約: 著者のミスアトリビューションは、現実の生活に重大な影響を及ぼす可能性がある。
著者帰属システムに対する標準的な評価基準は、この公正性の概念を明示的に考慮していない。
著者が書いたテキストの上位kにどのくらいの頻度でランク付けされているかに基づいて、単純な測度であるMisattribution Unfairness Index (MAUIk)を導入する。
- 参考スコア(独自算出の注目度): 18.055643489884552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Authorship misattribution can have profound consequences in real life. In forensic settings simply being considered as one of the potential authors of an evidential piece of text or communication can result in undesirable scrutiny. This raises a fairness question: Is every author in the candidate pool at equal risk of misattribution? Standard evaluation measures for authorship attribution systems do not explicitly account for this notion of fairness. We introduce a simple measure, Misattribution Unfairness Index (MAUIk), which is based on how often authors are ranked in the top k for texts they did not write. Using this measure we quantify the unfairness of five models on two different datasets. All models exhibit high levels of unfairness with increased risks for some authors. Furthermore, we find that this unfairness relates to how the models embed the authors as vectors in the latent search space. In particular, we observe that the risk of misattribution is higher for authors closer to the centroid (or center) of the embedded authors in the haystack. These results indicate the potential for harm and the need for communicating with and calibrating end users on misattribution risk when building and providing such models for downstream use.
- Abstract(参考訳): 著者のミスアトリビューションは、現実の生活に重大な影響を及ぼす可能性がある。
法医学的な設定では、明白なテキストやコミュニケーションの潜在的な著者の1人として単に考えられているだけで、望ましくない精査が生じる。
これは公平性に関する疑問を提起する: 候補プールにいるすべての著者は、同一の誤帰のリスクを負っているか?
著者帰属システムに対する標準的な評価基準は、この公正性の概念を明示的に考慮していない。
著者が書いたテキストの上位kにどのくらいの頻度でランク付けされているかに基づいて、単純な測度であるMisattribution Unfairness Index (MAUIk)を導入する。
この尺度を用いて、2つの異なるデータセット上の5つのモデルの不公平さを定量化する。
いずれのモデルも高い不公平さを示しており、一部の著者にとってはリスクが増大している。
さらに、この不公平さは、モデルが潜在探索空間に作者をベクトルとして埋め込む方法に関連していることがわかった。
特に,干し草に埋め込まれた著者の遠心点(あるいは中心点)に近づいた著者にとって,誤帰のリスクが高いことが観察された。
これらの結果から,ダウンストリーム用モデルの構築と提供において,エンドユーザーとのコミュニケーションや誤属性リスクの校正の必要性が示唆された。
関連論文リスト
- Authorship Attribution in the Era of LLMs: Problems, Methodologies, and Challenges [16.35265384114857]
LLM(Large Language Models)の急速な進歩は、人間と機械のオーサシップの境界線を曖昧にしている。
この文献レビューは、この急速に発展する分野における芸術の状況を理解することに興味を持つ研究者や実践者のためのロードマップを提供する。
論文 参考訳(メタデータ) (2024-08-16T17:58:49Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Can You Fool AI by Doing a 180? $\unicode{x2013}$ A Case Study on
Authorship Analysis of Texts by Arata Osada [2.6954666679827137]
本稿では,倫理学と著者分析の分野をカバーする2つの疑問に答える試みである。
まず,著者識別システムが,作品の作者への正しい属性付けが可能かどうかを,長年にわたって大きな心理的移行を経た上で確認することに興味を抱いた。
第2に、著者の倫理的価値観の進化の観点から、著者の帰属体系が単一著者の発見に困難に直面する場合、それが何を意味するのかを確認した。
論文 参考訳(メタデータ) (2022-07-19T05:43:49Z) - On the Usefulness of Embeddings, Clusters and Strings for Text Generator
Evaluation [86.19634542434711]
Mauveは、弦上の2つの確率分布間の情報理論のばらつきを測定する。
我々は,Mauveが誤った理由で正しいことを示し,新たに提案された分岐はハイパフォーマンスには必要ないことを示した。
テキストの構文的およびコヒーレンスレベルの特徴を符号化することで、表面的な特徴を無視しながら、文字列分布に対するクラスタベースの代替品は、単に最先端の言語ジェネレータを評価するのに良いかもしれない、と結論付けています。
論文 参考訳(メタデータ) (2022-05-31T17:58:49Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - FairCanary: Rapid Continuous Explainable Fairness [8.362098382773265]
本稿では,新しいモデルバイアス量化尺度であるQuantile Demographic Drift(QDD)を提案する。
QDDは継続的な監視シナリオに最適であり、従来のしきい値ベースのバイアスメトリクスの統計的制限に悩まされない。
QDDをFairCanaryと呼ばれる継続的モデル監視システムに組み込み、各予測毎に計算された既存の説明を再利用します。
論文 参考訳(メタデータ) (2021-06-13T17:47:44Z) - Fairness for Whom? Understanding the Reader's Perception of Fairness in
Text Summarization [9.136419921943235]
フェアネスの概念と読者のテキスト要約における認識の相互関係について検討する。
標準的なROUGE評価指標は、要約の認識された(不公平な)性質を定量化できない。
論文 参考訳(メタデータ) (2021-01-29T05:14:34Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。