論文の概要: Adaptive Bounded Exploration and Intermediate Actions for Data Debiasing
- arxiv url: http://arxiv.org/abs/2504.08151v1
- Date: Thu, 10 Apr 2025 22:22:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:18:18.288221
- Title: Adaptive Bounded Exploration and Intermediate Actions for Data Debiasing
- Title(参考訳): データデバインドのための適応境界探索と中間行動
- Authors: Yifan Yang, Yang Liu, Parinaz Naghizadeh,
- Abstract要約: 適応的および有界探索によりトレーニングデータセットを逐次劣化させるアルゴリズムを提案する。
提案したアルゴリズムは、データバイアスの影響を緩和するという究極の目標との間にバランスを取ります。
- 参考スコア(独自算出の注目度): 18.87576995391638
- License:
- Abstract: The performance of algorithmic decision rules is largely dependent on the quality of training datasets available to them. Biases in these datasets can raise economic and ethical concerns due to the resulting algorithms' disparate treatment of different groups. In this paper, we propose algorithms for sequentially debiasing the training dataset through adaptive and bounded exploration in a classification problem with costly and censored feedback. Our proposed algorithms balance between the ultimate goal of mitigating the impacts of data biases -- which will in turn lead to more accurate and fairer decisions, and the exploration risks incurred to achieve this goal. Specifically, we propose adaptive bounds to limit the region of exploration, and leverage intermediate actions which provide noisy label information at a lower cost. We analytically show that such exploration can help debias data in certain distributions, investigate how {algorithmic fairness interventions} can work in conjunction with our proposed algorithms, and validate the performance of these algorithms through numerical experiments on synthetic and real-world data.
- Abstract(参考訳): アルゴリズムによる決定ルールのパフォーマンスは、トレーニングデータセットの品質に大きく依存する。
これらのデータセットのバイアスは、異なるグループの異なる処理の結果、経済的および倫理的懸念を引き起こす可能性がある。
本稿では,高価で検閲されたフィードバックを伴う分類問題において,適応的かつ有界な探索を通じてトレーニングデータセットを逐次劣化させるアルゴリズムを提案する。
提案したアルゴリズムは、データバイアスの影響を軽減するという究極の目標 -- 結果として、より正確で公平な決定につながる -- と、この目標を達成するための調査リスクとの間にバランスを取ります。
具体的には、探索領域を制限するための適応境界を提案し、低コストでノイズラベル情報を提供する中間動作を利用する。
このような探索が,特定の分布におけるデータのデバイアス化に有効であることを解析的に示し,提案アルゴリズムと協調して {algorithmic fairness interventions} がどのように機能するかを検証し,これらのアルゴリズムの性能を,合成および実世界のデータに関する数値実験により検証する。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - AN An ica-ensemble learning approach for prediction of uwb nlos signals
data classification [0.0]
本研究は、無線通信による情報調和と、超広帯域レーダ信号を用いたNLOSシナリオにおける個人識別に焦点を当てた。
実験では、静的データに対して88.37%、動的データに対して87.20%の分類精度を示し、提案手法の有効性を強調した。
論文 参考訳(メタデータ) (2024-02-27T11:42:26Z) - From Variability to Stability: Advancing RecSys Benchmarking Practices [3.3331198926331784]
本稿では,RecSysアルゴリズムの公平かつ堅牢な比較を容易にするため,新しいベンチマーク手法を提案する。
本研究で導入された2つを含む30ドルのオープンデータセットの多種多様なセットを利用することで、データセット特性がアルゴリズム性能に与える影響を批判的に検証する。
論文 参考訳(メタデータ) (2024-02-15T07:35:52Z) - Gauge-optimal approximate learning for small data classification
problems [0.0]
小さなデータ学習問題は、応答変数の観測量が限られたことと大きな特徴空間次元との相違によって特徴づけられる。
本稿では,Gauge-Optimal Approximate Learning (GOAL)アルゴリズムを提案する。
GOALは、合成データと、気候科学やバイオインフォマティクスといった現実世界の応用に挑戦する、最先端の機械学習(ML)ツールと比較されている。
論文 参考訳(メタデータ) (2023-10-29T16:46:05Z) - An Improved Artificial Fish Swarm Algorithm for Solving the Problem of
Investigation Path Planning [8.725702964289479]
多集団差分進化(DE-CAFSA)に基づくカオス人工魚群アルゴリズムを提案する。
適応的な視野とステップサイズ調整を導入し、ランダムな動作を2オプト操作に置き換え、カオス理論と準最適解を導入する。
実験結果から、DECAFSAは、異なる大きさの様々な公開データセット上で、他のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-20T09:35:51Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Adaptive Data Debiasing through Bounded Exploration and Fairness [19.082622108240585]
アルゴリズム決定規則の訓練に使用される既存のデータセットのバイアスは、倫理的、社会的、経済的懸念を提起する。
本稿では,適応探索と有界探索により,これらのデータセットを逐次デバイアスするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-25T15:50:10Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。