論文の概要: Recommendation Fairness in Social Networks Over Time
- arxiv url: http://arxiv.org/abs/2402.03450v2
- Date: Tue, 7 May 2024 13:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 19:34:38.641972
- Title: Recommendation Fairness in Social Networks Over Time
- Title(参考訳): ソーシャルネットワークにおけるリコメンデーションフェアネスの経年変化
- Authors: Meng Cao, Hussain Hussain, Sandipan Sikdar, Denis Helic, Markus Strohmaier, Roman Kern,
- Abstract要約: 提案手法は,時間経過に伴う推薦公平性の進化と動的ネットワーク特性との関係について検討する。
提案手法によらず,推奨公正性は時間の経過とともに向上することが示唆された。
マイノリティ比とホモフィリー比の2つのネットワーク特性は、時間とともに公平性と安定した相関を示す。
- 参考スコア(独自算出の注目度): 20.27386486425493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In social recommender systems, it is crucial that the recommendation models provide equitable visibility for different demographic groups, such as gender or race. Most existing research has addressed this problem by only studying individual static snapshots of networks that typically change over time. To address this gap, we study the evolution of recommendation fairness over time and its relation to dynamic network properties. We examine three real-world dynamic networks by evaluating the fairness of six recommendation algorithms and analyzing the association between fairness and network properties over time. We further study how interventions on network properties influence fairness by examining counterfactual scenarios with alternative evolution outcomes and differing network properties. Our results on empirical datasets suggest that recommendation fairness improves over time, regardless of the recommendation method. We also find that two network properties, minority ratio, and homophily ratio, exhibit stable correlations with fairness over time. Our counterfactual study further suggests that an extreme homophily ratio potentially contributes to unfair recommendations even with a balanced minority ratio. Our work provides insights into the evolution of fairness within dynamic networks in social science. We believe that our findings will help system operators and policymakers to better comprehend the implications of temporal changes and interventions targeting fairness in social networks.
- Abstract(参考訳): 社会的レコメンデーションシステムでは、推薦モデルは、性別や人種など、異なる人口集団に対して公平な可視性を提供することが不可欠である。
既存の研究の多くは、通常、時間とともに変化するネットワークの個々の静的スナップショットを研究することでこの問題に対処している。
このギャップに対処するために、時間とともに推薦公正性の進化と動的ネットワーク特性との関係について検討する。
本研究では,6つの推薦アルゴリズムの公正性を評価し,時間とともに公平性とネットワーク特性の関係を解析することにより,実世界の3つの動的ネットワークについて検討する。
さらに、ネットワーク特性に対する介入が、代替進化の結果と異なるネットワーク特性を用いて、対実的なシナリオを調べることによって、公正性にどのように影響するかを考察する。
実験結果から,提案手法によらず,推奨公正性は時間とともに向上することが示唆された。
また,2つのネットワーク特性,マイノリティ比とホモフィリー比が,時間とともに公平性と安定な相関を示すことも見出した。
我々の実証研究は、極度のホモフィリー比が、バランスの取れたマイノリティ比であっても不公平なレコメンデーションに寄与する可能性を示唆している。
我々の研究は、社会科学における動的ネットワークにおける公正性の進化に関する洞察を提供する。
我々は、システムオペレーターや政策立案者が、ソーシャルネットワークにおける公正をターゲットとした時間的変化や介入の影響をよりよく理解するのに役立つと信じている。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - Networked Inequality: Preferential Attachment Bias in Graph Neural Network Link Prediction [44.00932300499947]
ネットワークの度合いバイアスがグラフ畳み込みネットワーク(GCN)のリンク予測に与える影響について検討する。
対称正規化グラフフィルタを持つGCNは、群内優先アタッチメントバイアスを有する。
本稿では,ソーシャルグループ内のリンク予測スコアの相違を定量化する,グループ内公正度尺度を提案する。
論文 参考訳(メタデータ) (2023-09-29T17:26:44Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Delayed and Indirect Impacts of Link Recommendations [23.583662580148133]
動的環境下でのソーシャルネットワークに対するレコメンデーションの効果について検討する。
リンクレコメンデーションは、ネットワークの構造的特性に突然の遅延と間接的な影響があることがわかった。
反実的シミュレーションでは、リンク推奨の間接効果を除去することで、自然成長力学の下でのネットワークのトレンドがより高速になることを示す。
論文 参考訳(メタデータ) (2023-03-17T00:09:19Z) - Stimulative Training of Residual Networks: A Social Psychology
Perspective of Loafing [86.69698062642055]
残余のネットワークは大きな成功を収め、今日のディープモデルでは欠かせないものになっている。
我々は,新たな社会的心理学的視点から,残余ネットワークのトレーニングプロセスを再検討することを目的としている。
残余ネットワークの性能を高めるための新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-09T03:15:51Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - FaiR-N: Fair and Robust Neural Networks for Structured Data [10.14835182649819]
決定境界に対するデータポイントの距離を考慮したニューラルネットワークのトレーニングのための新しい定式化を提案する。
この損失でトレーニングすることで、トレーニングなしでトレーニングされたモデルと同じような精度で、より公平で堅牢なニューラルネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-10-13T01:53:15Z) - Fairness Perception from a Network-Centric Perspective [12.261689483681147]
ネットワーク中心の公平感知覚と呼ばれる新しい直感的機能を導入する。
フェアネス可視性として知られる群フェアネス計量に関数をどのように拡張できるかを示す。
アルゴリズムの判断が公正であると認識するために、個人を誤解させるようなフェアネスの可視性尺度の潜在的な落とし穴について説明する。
論文 参考訳(メタデータ) (2020-10-07T06:35:03Z) - Adversarial Training Reduces Information and Improves Transferability [81.59364510580738]
近年の研究では, 頑健性に加えて, 可逆性などの望ましい特性が期待できることが示されている。
本稿では,新たなタスクへの線形転送性の向上を図り,表現の伝達可能性とソースタスクの精度の間に新たなトレードオフが生じていることを示す。
論文 参考訳(メタデータ) (2020-07-22T08:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。