論文の概要: FairSNA: Algorithmic Fairness in Social Network Analysis
- arxiv url: http://arxiv.org/abs/2209.01678v2
- Date: Wed, 20 Mar 2024 15:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 23:26:53.500546
- Title: FairSNA: Algorithmic Fairness in Social Network Analysis
- Title(参考訳): FairSNA: ソーシャルネットワーク分析におけるアルゴリズム的公正性
- Authors: Akrati Saxena, George Fletcher, Mykola Pechenizkiy,
- Abstract要約: ソーシャルネットワークの構造的バイアスが、さまざまな方法の公平性にどのように影響するかを強調します。
我々は、異なるSNA問題に対して、ネットワーク構造に基づくソリューションを提案しながら考慮すべき公平性について論じる。
フェアネスとSNAのギャップを埋めるために研究者の注意を必要とする様々なオープンな研究の方向性を強調した。
- 参考スコア(独自算出の注目度): 17.39106091928567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, designing fairness-aware methods has received much attention in various domains, including machine learning, natural language processing, and information retrieval. However, understanding structural bias and inequalities in social networks and designing fairness-aware methods for various research problems in social network analysis (SNA) have not received much attention. In this work, we highlight how the structural bias of social networks impacts the fairness of different SNA methods. We further discuss fairness aspects that should be considered while proposing network structure-based solutions for different SNA problems, such as link prediction, influence maximization, centrality ranking, and community detection. This paper clearly highlights that very few works have considered fairness and bias while proposing solutions; even these works are mainly focused on some research topics, such as link prediction, influence maximization, and PageRank. However, fairness has not yet been addressed for other research topics, such as influence blocking and community detection. We review state-of-the-art for different research topics in SNA, including the considered fairness constraints, their limitations, and our vision. This paper also covers evaluation metrics, available datasets, and synthetic network generating models used in such studies. Finally, we highlight various open research directions that require researchers' attention to bridge the gap between fairness and SNA.
- Abstract(参考訳): 近年, 機械学習, 自然言語処理, 情報検索などの分野において, 公平性を意識した手法の設計が注目されている。
しかし、ソーシャルネットワークにおける構造バイアスや不平等の理解や、ソーシャルネットワーク分析(SNA)における様々な研究課題に対する公平性に配慮した手法の設計には、あまり関心が寄せられていない。
本研究では、ソーシャルネットワークの構造バイアスが、異なるSNA手法の公平性にどのように影響するかを強調する。
さらに、リンク予測、影響の最大化、集中度ランキング、コミュニティ検出など、異なるSNA問題に対するネットワーク構造に基づくソリューションを提案しながら考慮すべき公平性について論じる。
本論文は,提案するソリューションにおいて,公正さと偏見を考慮した研究はほとんどなく,リンク予測や影響の最大化,PageRankなど,いくつかの研究トピックに重点を置いている。
しかし、影響遮断やコミュニティ検出など、他の研究トピックに対しては、フェアネスについてはまだ言及されていない。
我々は, 公正性制約, 限界, ビジョンなど, SNA のさまざまな研究テーマについて, 現状を概観する。
また、これらの研究で使用される評価指標、利用可能なデータセット、合成ネットワーク生成モデルについても述べる。
最後に、フェアネスとSNAのギャップを埋めるために研究者の注意を必要とする様々なオープンな研究の方向性を強調した。
関連論文リスト
- Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness [6.683051393349788]
本研究は,クロスセクタ間差分を定量化するための革新的アプローチを導入する。
プロプライエタリなデータセットとパブリックなデータセットの両方を使用して、私たちのアプローチを検証する。
我々の発見は、少数民族間の大きな相違が明らかとなり、現実世界のAIアプリケーションにおいて標的となる介入の必要性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-05-24T08:10:31Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Debiasing Methods for Fairer Neural Models in Vision and Language
Research: A Survey [3.4767443062432326]
フェアネスを意識したニューラルネットワークの主なデバイアス法について,詳細な概要を述べる。
本研究では,公平性に関する嫌悪法に関する文献を整理する新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-11-10T14:42:46Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Weight-Sharing Neural Architecture Search: A Battle to Shrink the
Optimization Gap [90.93522795555724]
ニューラルアーキテクチャサーチ(NAS)は、学術と産業の両方で注目を集めている。
重み共有手法は、多くのアーキテクチャが同一のスーパーネットワークで重みを共有している。
本稿では,NAS,特に重み付け手法に関する文献レビューを行う。
論文 参考訳(メタデータ) (2020-08-04T11:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。