論文の概要: DQ4FairIM: Fairness-aware Influence Maximization using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.00545v1
- Date: Sat, 29 Nov 2025 16:31:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.288315
- Title: DQ4FairIM: Fairness-aware Influence Maximization using Deep Reinforcement Learning
- Title(参考訳): DQ4FairIM: 深層強化学習による公正意識の影響の最大化
- Authors: Akrati Saxena, Harshith Kumar Yadav, Bart Rutten, Shashi Shekhar Jha,
- Abstract要約: 影響最大化(IM)問題は、ソーシャルネットワークにおける影響の広がりを最大化するために、所定の予算内でシードノードのセットを選択することを目的としている。
本稿では,すべてのコミュニティにおける公平な影響を確実にする,強化学習(Reinforcement Learning, RL)を用いた公正なIM手法を提案する。
我々は,合成ベンチマークと実世界のネットワークを用いて,本手法をフェアネスに依存しない,フェアネスを意識したベースラインと比較する。
- 参考スコア(独自算出の注目度): 1.3474501014756584
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Influence Maximization (IM) problem aims to select a set of seed nodes within a given budget to maximize the spread of influence in a social network. However, real-world social networks have several structural inequalities, such as dominant majority groups and underrepresented minority groups. If these inequalities are not considered while designing IM algorithms, the outcomes might be biased, disproportionately benefiting majority groups while marginalizing minorities. In this work, we address this gap by designing a fairness-aware IM method using Reinforcement Learning (RL) that ensures equitable influence outreach across all communities, regardless of protected attributes. Fairness is incorporated using a maximin fairness objective, which prioritizes improving the outreach of the least-influenced group, pushing the solution toward an equitable influence distribution. We propose a novel fairness-aware deep RL method, called DQ4FairIM, that maximizes the expected number of influenced nodes by learning an RL policy. The learnt policy ensures that minority groups formulate the IM problem as a Markov Decision Process (MDP) and use deep Q-learning, combined with the Structure2Vec network embedding, earning together with Structure2Vec network embedding to solve the MDP. We perform extensive experiments on synthetic benchmarks and real-world networks to compare our method with fairness-agnostic and fairness-aware baselines. The results show that our method achieves a higher level of fairness while maintaining a better fairness-performance trade-off than baselines. Additionally, our approach learns effective seeding policies that generalize across problem instances without retraining, such as varying the network size or the number of seed nodes.
- Abstract(参考訳): 影響最大化(IM)問題は、ソーシャルネットワークにおける影響の広がりを最大化するために、所定の予算内でシードノードのセットを選択することを目的としている。
しかし、現実世界のソーシャルネットワークには、多数派や少数派など、いくつかの構造的不平等がある。
これらの不等式がIMアルゴリズムを設計している間に考慮されない場合、結果は偏りがあり、少数派を疎外しながら多数派に利益をもたらす可能性がある。
本研究では,保護属性に関係なく,すべてのコミュニティに公平な影響が及ぶことを保証するために,強化学習(RL)を用いた公正なIM手法を設計することで,このギャップに対処する。
フェアネスは、最小影響群のアウトリーチの改善を優先し、同値な影響分布に向かって解を推し進める最大公正目標を用いて組み込まれている。
提案手法はDQ4FairIMと呼ばれ,RLポリシーを学習することで,影響ノードの期待数を最大化する。
学習ポリシーは、マイノリティグループがマルコフ決定プロセス(MDP)としてIM問題を定式化し、深いQ-ラーニングとStructure2Vecネットワークの埋め込みを組み合わせ、Structure2Vecネットワークの埋め込みと組み合わせてMDPを解くことを保証している。
我々は,合成ベンチマークと実世界のネットワークを用いて,本手法をフェアネスに依存しない,フェアネスを意識したベースラインと比較する。
その結果,本手法はベースラインよりもフェアネス・パフォーマンスのトレードオフを良好に保ちつつ,高いフェアネスを達成できることが示唆された。
さらに,ネットワークサイズやシードノード数など,再学習なしに問題インスタンスをまたいだ効果的なシードポリシーを学習する。
関連論文リスト
- Doubly-Regressing Approach for Subgroup Fairness [14.327714719028924]
敏感な属性の数が増えると、サブグループの数が増加する。
これにより、計算上の重荷とデータ空間の問題が発生する。
サブグループフェアネスのための新しい学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-10-24T02:04:44Z) - DISCO Balances the Scales: Adaptive Domain- and Difficulty-Aware Reinforcement Learning on Imbalanced Data [65.09939942413651]
本稿では,グループ間不均衡と2つの重要なイノベーションに対処するGRPOの原理的拡張を提案する。
ドメイン対応報酬スケーリングは、ドメインの頻度に基づいて最適化を再重み付けすることで周波数バイアスに対処する。
難解な報酬のスケーリングは、学習価値を提供する不確実なプロンプトを特定し、優先順位付けするために、プロンプトレベルの自己整合性を活用する。
論文 参考訳(メタデータ) (2025-05-21T03:43:29Z) - Bridging Jensen Gap for Max-Min Group Fairness Optimization in Recommendation [63.66719748453878]
グループ・マックスミン・フェアネス(MMF)は、最適化の目的として、フェアネス・アウェア・レコメンダシステム(RS)で一般的に使用される。
本稿では,Jensenギャップを最小化するために2つの最適化手法を利用するFairDualというアルゴリズムを提案する。
理論的解析により、FairDualは、大域的最適解に対するサブ線形収束率を達成できることが示されている。
論文 参考訳(メタデータ) (2025-02-13T13:33:45Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - MaxMin-RLHF: Alignment with Diverse Human Preferences [101.57443597426374]
Reinforcement Learning from Human Feedback (RLHF) は、言語モデルと人間の嗜好を一致させる。
予測最大化アルゴリズムを用いて嗜好分布の混合を学習し、人間の嗜好をよりよく表現する。
従来のRLHFアルゴリズムよりも16%以上の勝利率向上を実現している。
論文 参考訳(メタデータ) (2024-02-14T03:56:27Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Contingency-Aware Influence Maximization: A Reinforcement Learning
Approach [52.109536198330126]
インフルエンス(IM)問題は、インフルエンスの普及を最大化する、ソーシャルネットワーク内のシードノードのサブセットを見つけることを目的としている。
本研究では、招待されたノードがシードであるかどうかが不確実なIM問題(contingency-aware IM)に焦点をあてる。
最初の成功にもかかわらず、より多くのコミュニティへのソリューションの推進における大きな実践上の障害は、欲張りのアルゴリズムの巨大な実行時である。
論文 参考訳(メタデータ) (2021-06-13T16:42:22Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。