論文の概要: Fair Streaming Feature Selection
- arxiv url: http://arxiv.org/abs/2406.14401v1
- Date: Thu, 20 Jun 2024 15:22:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 13:03:05.460197
- Title: Fair Streaming Feature Selection
- Title(参考訳): フェアストリーミングの特徴選択
- Authors: Zhangling Duan, Tianci Li, Xingyu Wu, Zhaolong Ling, Jingye Yang, Zhaohong Jia,
- Abstract要約: 公正なストリーミング特徴選択のための新しいアルゴリズムであるFairSFSを提案する。
FairSFSは,ストリーミングの特徴選択手法と同等の精度を維持するだけでなく,フェアネスの指標を大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 9.327911386140109
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Streaming feature selection techniques have become essential in processing real-time data streams, as they facilitate the identification of the most relevant attributes from continuously updating information. Despite their performance, current algorithms to streaming feature selection frequently fall short in managing biases and avoiding discrimination that could be perpetuated by sensitive attributes, potentially leading to unfair outcomes in the resulting models. To address this issue, we propose FairSFS, a novel algorithm for Fair Streaming Feature Selection, to uphold fairness in the feature selection process without compromising the ability to handle data in an online manner. FairSFS adapts to incoming feature vectors by dynamically adjusting the feature set and discerns the correlations between classification attributes and sensitive attributes from this revised set, thereby forestalling the propagation of sensitive data. Empirical evaluations show that FairSFS not only maintains accuracy that is on par with leading streaming feature selection methods and existing fair feature techniques but also significantly improves fairness metrics.
- Abstract(参考訳): ストリームの特徴選択技術は、関連性の高い属性の識別を継続的に更新することで、リアルタイムデータストリームの処理に欠かせないものとなっている。
パフォーマンスにもかかわらず、現在の特徴選択に対するアルゴリズムは、バイアスを管理したり、センシティブな属性によって永続する可能性のある差別を避けるためにしばしば不足し、結果として生じるモデルに不公平な結果をもたらす可能性がある。
この問題に対処するため,FairSFSを提案する。FairSFSはFair Streaming Feature Selectionのための新しいアルゴリズムで,オンライン方式でデータを扱う能力を損なうことなく,特徴選択プロセスにおける公平性を維持できる。
FairSFSは、特徴集合を動的に調整して入ってくる特徴ベクトルに適応し、この修正セットから分類属性と感度属性の相関を識別し、感度データの伝搬を森林化する。
実証的な評価では、FairSFSはストリーミングの特徴選択方法や既存の公正な特徴技術と同等の精度を維持しているだけでなく、フェアネスの指標も大幅に改善している。
関連論文リスト
- Online Feature Updates Improve Online (Generalized) Label Shift
Adaptation [54.3888105557787]
本稿では,ラベルを欠いたオンライン環境におけるラベルシフトの問題に対処する。
テスト時にラベルのないデータを用いて特徴表現を拡張できる未解決の可能性を探る。
オンライン特徴更新(OLS-OFU)を用いたオンラインラベルシフト適応手法は,自己教師付き学習を活用し,特徴抽出プロセスの洗練を図る。
論文 参考訳(メタデータ) (2024-02-05T22:03:25Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Fair Causal Feature Selection [17.29310476978056]
フェアCFSと呼ばれるフェア因果的特徴選択アルゴリズムを提案する。
FairCFSは局所化された因果グラフを構築し、クラスと敏感な変数のマルコフ毛布を識別する。
7つのパブリックな実世界のデータセットの実験により、FairCFSは8つの最先端機能選択アルゴリズムと比較して精度が同等であることが検証された。
論文 参考訳(メタデータ) (2023-06-17T12:40:43Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Online Sparse Streaming Feature Selection Using Adapted Classification [5.587715545506331]
既存の方法は、データを欠くことなく、特徴を関連性または無関係に分割する。
適応型分類(OS2FS-AC)に基づくオンラインスパースストリーミングの特徴選択を提案する。
10個の実世界のデータセットの実験結果から、OS2FS-ACは最先端のアルゴリズムよりも性能が良いことが示された。
論文 参考訳(メタデータ) (2023-02-25T03:03:53Z) - Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - An Online Sparse Streaming Feature Selection Algorithm [14.414813893419506]
我々は不確実性のあるオンラインスパースストリーミング特徴選択アルゴリズム(OS2FSU)を提案する。
OS2FSUは,1)特徴選択の導出前の疎ストリーミング特徴の欠落を事前に推定するために潜時因子分析を用い,2)特徴選択を行う際の推定ストリーミング特徴とラベルの不確かさを軽減するためにファジィ論理と周辺粗さ集合を用いる。
結果、OS2FSUはOSFSでデータ不足が発生した場合、競合より優れていることが示された。
論文 参考訳(メタデータ) (2022-08-02T16:08:22Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。