論文の概要: Inequality in the Age of Pseudonymity
- arxiv url: http://arxiv.org/abs/2508.04668v1
- Date: Wed, 06 Aug 2025 17:36:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.855322
- Title: Inequality in the Age of Pseudonymity
- Title(参考訳): 擬人化時代の不平等
- Authors: Aviv Yaish, Nir Chemaya, Lin William Cong, Dahlia Malkhi,
- Abstract要約: ジニ係数のような不平等対策は、政策決定を通知し動機づけするために用いられる。
私たちは、インターネットベースのプラットフォームやブロックチェーンベースのプラットフォームに共通する、匿名設定での対策方法を分析します。
一部のアクターはプライバシーを守るためにそうするかもしれませんが、これは不平等な指標を意図せずに歪めてしまう可能性があることを示しています。
- 参考スコア(独自算出の注目度): 1.6274397329511197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inequality measures such as the Gini coefficient are used to inform and motivate policymaking, and are increasingly applied to digital platforms. We analyze how measures fare in pseudonymous settings, as common to internet-based or blockchain-based platforms. One key challenge that arises is the ability of actors to create multiple fake identities under fictitious false names, also known as ``Sybils.'' While some actors may do so to preserve their privacy, we show that this can inadvertently distort inequality metrics. As we show, when using inequality measures that satisfy literature's canonical set of desired properties, the presence of Sybils in an economy implies that it is impossible to properly measure the economy's inequality. Then, we present several classes of Sybil-proof measures that satisfy relaxed versions of the aforementioned desired properties, and, by fully characterizing them, we prove that the structure imposed restricts their ability to assess inequality at a fine-grained level. In addition, we prove that popular inequality metrics, including the famous Gini coefficient, are vulnerable to Sybil manipulations, and examine the dynamics that result in the creation of Sybils, whether in pseudonymous settings or traditional ones.
- Abstract(参考訳): ジニ係数のような不平等対策は政策決定を通知し動機づけするために使われ、デジタルプラットフォームにますます適用される。
私たちは、インターネットベースのプラットフォームやブロックチェーンベースのプラットフォームに共通する、匿名設定での対策方法を分析します。
重要な課題の1つは、アクターが架空の偽名( ``Sybils' としても知られる)の下で複数の偽のIDを作成する能力である。
「」一部の俳優はプライバシーを守るためにそうするかもしれないが、これは不平等な指標を意図的に歪めてしまう可能性があることを示している。
このように、文学の標準的性質を満たす不平等措置を用いる場合、経済におけるシビルの存在は、経済の不平等を適切に測定することは不可能であることを示している。
次に、上記の所望特性の緩和版を満足するシビル対策のいくつかのクラスを提示し、それらを完全に特徴づけることで、課された構造が不等式をきめ細かいレベルで評価する能力を制限することを証明した。
さらに、有名なジーニ係数を含む一般的な不等式指標が、シビルの操作に弱いことを証明し、擬似的な設定でも従来のものであっても、シビルの生成に繋がるダイナミクスを検証した。
関連論文リスト
- Properties of fairness measures in the context of varying class imbalance and protected group ratios [15.942660279740727]
クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-11-13T08:18:03Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Robust Allocations with Diversity Constraints [65.3799850959513]
エージェント値の積を最大化するナッシュ福祉規則は,多様性の制約が導入されたとき,一意にロバストな位置にあることを示す。
また, ナッシュ・ウェルズによる保証は, 広く研究されているアロケーション・ルールのクラスにおいて, ほぼ最適であることを示す。
論文 参考訳(メタデータ) (2021-09-30T11:09:31Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Causal Multi-Level Fairness [4.937180141196767]
因果推論からツールを用いてマルチレベルフェアネスの問題を定式化する。
マクロレベルの微妙な属性が考慮されない場合、不公平な不公平さを示すことによって問題の重要性を示す。
論文 参考訳(メタデータ) (2020-10-14T18:26:17Z) - Robustness Guarantees for Mode Estimation with an Application to Bandits [131.21717367564963]
平均ではなく報酬分布のモードを値とするマルチアームバンディットの理論を導入する。
我々は,我々のアルゴリズムが逆雑音列による腕の摂動に頑健であることを示すシミュレーションで示す。
論文 参考訳(メタデータ) (2020-03-05T21:29:27Z) - Fairness Measures for Regression via Probabilistic Classification [0.0]
アルゴリズムフェアネス(英: Algorithmic Fairness)とは、機械学習アルゴリズムが最適化できる定量尺度として、公平性や合理的な扱いなどの概念を表現することである。
これは、分類公正度尺度が結果の比率を比較することで容易に計算され、同じ資格を持つ男性の割合が適格女性として選択されるような行動につながるためである。
しかし、そのような尺度は、価格や支払いの割当といった問題に対する継続的な回帰設定を一般化することは、計算的に困難である。
回帰設定では, 保護属性の異なる条件確率の比率として, 独立性, 分離性, 充足性基準の抽出可能な近似を導入する。
論文 参考訳(メタデータ) (2020-01-16T21:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。