論文の概要: Group mixing drives inequality in face-to-face gatherings
- arxiv url: http://arxiv.org/abs/2106.11688v2
- Date: Wed, 16 Mar 2022 09:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 21:03:41.181832
- Title: Group mixing drives inequality in face-to-face gatherings
- Title(参考訳): グループ混合は対面集合における不平等を駆動する
- Authors: Marcos Oliveira, Fariba Karimi, Maria Zens, Johann Schaible, Mathieu
G\'enois, Markus Strohmaier
- Abstract要約: 対面状況下での社会集団の相互作用は、社会集団の可視性における格差の出現を可能にすることを示す。
群混合と群サイズ不均衡の結果,これらの相違を説明するメカニズムについて述べる。
- 参考スコア(独自算出の注目度): 2.7728956081909346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncovering how inequality emerges from human interaction is imperative for
just societies. Here we show that the way social groups interact in
face-to-face situations can enable the emergence of disparities in the
visibility of social groups. These disparities translate into members of
specific social groups having fewer social ties than the average (i.e., degree
inequality). We characterize group degree inequality in sensor-based data sets
and present a mechanism that explains these disparities as the result of group
mixing and group-size imbalance. We investigate how group sizes affect this
inequality, thereby uncovering the critical size and mixing conditions in that
a critical minority group emerges. If a minority group is larger than this
critical size, it can be a well-connected, cohesive group; if it is smaller,
minority cohesion widens degree inequality. Finally, we expose the
under-representation of individuals in degree rankings due to mixing dynamics
and propose a way to reduce such biases.
- Abstract(参考訳): 人間の相互作用から不平等がいかに生まれるかを明らかにすることは、社会にとって不可欠である。
ここでは、対面状況における社会集団の相互作用が、社会集団の視認における格差の出現を可能にすることを示す。
これらの格差は、平均よりも社会的な関係の少ない特定の社会集団(つまり学位不平等)に属する。
センサベースデータセットにおける群次不等式を特徴付けるとともに、群混合と群サイズ不均衡の結果、これらの格差を説明するメカニズムを示す。
グループサイズがこの不等式にどのように影響するかを調査し、クリティカルマイノリティ群が出現する臨界サイズと混合条件を明らかにする。
少数群がこの臨界サイズよりも大きい場合は、結合性が良く、結合性が良く、より小さい場合には、少数群は次数不等式を広げる。
最後に,混合動力学による次数ランキングにおける個人の過少表現を暴露し,そのバイアスを軽減する方法を提案する。
関連論文リスト
- Large Language Models Portray Socially Subordinate Groups as More Homogeneous, Consistent with a Bias Observed in Humans [0.30723404270319693]
大規模言語モデル(LLM)における新しい形式のバイアスについて検討する。
チャットGPTはアフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック系アメリカ人を白人よりも同質であると表現した。
グループを多様性の低いリスクとして表現する傾向は、ステレオタイプや差別行動に永続する傾向があると論じる。
論文 参考訳(メタデータ) (2024-01-16T16:52:00Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Structural Group Unfairness: Measurement and Mitigation by means of the Effective Resistance [6.7454940931279666]
ソーシャルネットワークは、コミュニティ内の関係、信頼の規範、相互性として定義された社会資本の分配に寄与する。
集団レベルでの社会的資本の定量化方法の欠如は、保護属性に基づいてグループを定義した場合に特に重要である。
グループ分離, グループ径, グループ制御という, グループ資本の効果的な抵抗に基づく3つの尺度を導入し, グループを保護属性の値に応じて定義する。
論文 参考訳(メタデータ) (2023-05-05T00:57:55Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。