論文の概要: Continuous Fairness On Data Streams
- arxiv url: http://arxiv.org/abs/2601.08976v1
- Date: Tue, 13 Jan 2026 20:51:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.162939
- Title: Continuous Fairness On Data Streams
- Title(参考訳): データストリームの継続的公正性
- Authors: Subhodeep Ghosh, Zhihui Du, Angela Bonifati, Manish Kumar, David Bader, Senjuti Basu Roy,
- Abstract要約: データストリームのウィンドウ上で連続的なグループフェアネスを強制する問題について検討する。
本研究では,各スライドウィンドウ内において,より微細な粒度レベルでグループフェアネスを保証する新しいフェアネスモデルを提案する。
ブロックレベルのグループフェアネスを効率よく監視し、フェアネスに反した場合に現在のウィンドウを並べ替えるという2つの課題に対処する。
- 参考スコア(独自算出の注目度): 12.363465115783034
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study the problem of enforcing continuous group fairness over windows in data streams. We propose a novel fairness model that ensures group fairness at a finer granularity level (referred to as block) within each sliding window. This formulation is particularly useful when the window size is large, making it desirable to enforce fairness at a finer granularity. Within this framework, we address two key challenges: efficiently monitoring whether each sliding window satisfies block-level group fairness, and reordering the current window as effectively as possible when fairness is violated. To enable real-time monitoring, we design sketch-based data structures that maintain attribute distributions with minimal overhead. We also develop optimal, efficient algorithms for the reordering task, supported by rigorous theoretical guarantees. Our evaluation on four real-world streaming scenarios demonstrates the practical effectiveness of our approach. We achieve millisecond-level processing and a throughput of approximately 30,000 queries per second on average, depending on system parameters. The stream reordering algorithm improves block-level group fairness by up to 95% in certain cases, and by 50-60% on average across datasets. A qualitative study further highlights the advantages of block-level fairness compared to window-level fairness.
- Abstract(参考訳): データストリームのウィンドウ上で連続的なグループフェアネスを強制する問題について検討する。
本研究では,各スライドウィンドウ内において,より微細な粒度レベル(ブロックと呼ぶ)でグループフェアネスを保証する新しいフェアネスモデルを提案する。
この定式化は、ウィンドウサイズが大きい場合には特に有用であり、より微細な粒度で公平さを強制することが好ましい。
このフレームワークでは,各スライディングウィンドウがブロックレベルのグループフェアネスを満たすかどうかを効率的に監視し,フェアネスに違反した場合,現在のウィンドウを可能な限り効率的に並べ替える,という2つの課題に対処する。
リアルタイム監視を実現するため、最小限のオーバーヘッドで属性分布を維持するスケッチベースのデータ構造を設計する。
また、厳密な理論的保証によって支援された順序付けタスクの最適かつ効率的なアルゴリズムも開発する。
実世界の4つのストリーミングシナリオに対する評価は,本手法の有効性を実証するものである。
システムパラメータに応じて,ミリ秒単位の処理と1秒あたり約30,000クエリのスループットを実現する。
ストリームリオーダーアルゴリズムは、特定のケースにおいてブロックレベルのグループフェアネスを最大95%改善し、データセット全体で平均50~60%向上する。
質的研究は、ウィンドウレベルの公平性に比べてブロックレベルの公正性の利点をさらに強調する。
関連論文リスト
- A General Anchor-Based Framework for Scalable Fair Clustering [20.252573532319875]
AnchorベースのFair Clustering Framework(AFCF)を紹介します。
AFCFは任意の公正クラスタリングアルゴリズムを線形時間拡張性で強化する。
理論的には、データセット全体における最終クラスタリングの公平性は、アンカークラスタリングの公平性と一致することが証明されている。
論文 参考訳(メタデータ) (2025-11-13T02:50:06Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Federated Learning with Relative Fairness [6.460475042590685]
本稿では,クライアントのテキストの公平性を実現するための,連合学習フレームワークを提案する。
提案フレームワークは,分散ロバスト最適化(DRO)における従来の手法を拡張し,相対不公平性を最小化するミニマックス問題手法を用いる。
クライアント間の大きな損失と小さな損失の比率に基づいて、新しい公正度指数を導入し、トレーニングされたモデルの相対的公正性を評価し改善する。
論文 参考訳(メタデータ) (2024-11-02T07:12:49Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Efficient Algorithms For Fair Clustering with a New Fairness Notion [5.21410307583181]
我々は、Chierichettiらによって最初に導入されたフェアクラスタリングの問題を再考する。
既存のクラスタリングのソリューションはスケーラビリティが低いか、クラスタリングの目的と公平性のトレードオフを最適に達成できないかのいずれかです。
バランス特性を厳密に一般化し、細粒度効率とフェアネストレードオフを可能にする、$tau$-fair Fairnessと呼ばれる新しいフェアネスの概念を提案する。
論文 参考訳(メタデータ) (2021-09-02T04:52:49Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。