論文の概要: FairTTTS: A Tree Test Time Simulation Method for Fairness-Aware Classification
- arxiv url: http://arxiv.org/abs/2501.08155v1
- Date: Tue, 14 Jan 2025 14:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:37.494790
- Title: FairTTTS: A Tree Test Time Simulation Method for Fairness-Aware Classification
- Title(参考訳): FairTTTS:Fairness-Aware分類のためのツリーテスト時間シミュレーション手法
- Authors: Nurit Cohen-Inger, Lior Rokach, Bracha Shapira, Seffi Cohen,
- Abstract要約: アルゴリズムによる意思決定は多くの領域で深く浸透しているが、機械学習モデルのバイアスは依然として差別的な結果をもたらす。
木試験時間シミュレーション(TTTS)法にインスパイアされた新しい後処理バイアス緩和法であるFairTTTSを提案する。
- 参考スコア(独自算出の注目度): 12.609533046091318
- License:
- Abstract: Algorithmic decision-making has become deeply ingrained in many domains, yet biases in machine learning models can still produce discriminatory outcomes, often harming unprivileged groups. Achieving fair classification is inherently challenging, requiring a careful balance between predictive performance and ethical considerations. We present FairTTTS, a novel post-processing bias mitigation method inspired by the Tree Test Time Simulation (TTTS) method. Originally developed to enhance accuracy and robustness against adversarial inputs through probabilistic decision-path adjustments, TTTS serves as the foundation for FairTTTS. By building on this accuracy-enhancing technique, FairTTTS mitigates bias and improves predictive performance. FairTTTS uses a distance-based heuristic to adjust decisions at protected attribute nodes, ensuring fairness for unprivileged samples. This fairness-oriented adjustment occurs as a post-processing step, allowing FairTTTS to be applied to pre-trained models, diverse datasets, and various fairness metrics without retraining. Extensive evaluation on seven benchmark datasets shows that FairTTTS outperforms traditional methods in fairness improvement, achieving a 20.96% average increase over the baseline compared to 18.78% for related work, and further enhances accuracy by 0.55%. In contrast, competing methods typically reduce accuracy by 0.42%. These results confirm that FairTTTS effectively promotes more equitable decision-making while simultaneously improving predictive performance.
- Abstract(参考訳): アルゴリズムによる意思決定は多くの領域で深く浸透しているが、機械学習モデルのバイアスは依然として差別的な結果をもたらし、しばしば特権のないグループを傷つける。
公平な分類を得ることは本質的に困難であり、予測性能と倫理的考察のバランスを取る必要がある。
木試験時間シミュレーション(TTTS)法にインスパイアされた新しい後処理バイアス緩和法であるFairTTTSを提案する。
当初TTTSは、確率論的決定パス調整によって敵の入力に対する精度と堅牢性を高めるために開発され、FairTTTSの基礎となっている。
この精度向上技術に基づいて、FairTTTSはバイアスを軽減し、予測性能を向上させる。
FairTTTSは、保護された属性ノードでの判断を調整するために、距離ベースのヒューリスティックを使用して、特権のないサンプルに対して公平性を保証する。
このフェアネス指向の調整は、後処理のステップとして発生し、FairTTTSをトレーニング済みのモデル、多様なデータセット、そして再トレーニングなしでさまざまなフェアネスメトリクスに適用することができる。
7つのベンチマークデータセットの大規模な評価は、FairTTTSが従来の方法よりも公正さの向上に優れており、関連する作業の18.78%に対してベースライン平均20.96%向上し、精度が0.55%向上していることを示している。
対照的に、競合する手法は一般的に精度を0.42%削減する。
これらの結果から,FairTTTSは予測性能を向上しつつ,より公平な意思決定を促進することが確認された。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - BMFT: Achieving Fairness via Bias-based Weight Masking Fine-tuning [17.857930204697983]
Bias-based Weight Masking Fine-Tuning (BMFT) は、訓練されたモデルの公平性を大幅に向上させる新しい後処理手法である。
BMFTはモデルパラメータの上にマスクを生成し、偏りのある予測に最も寄与する重みを効率的に識別する。
4つの皮膚科学データセットと2つの感度特性による実験により、BMFTは診断精度と公正度の両方で既存の最先端(SOTA)技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T13:36:48Z) - AETTA: Label-Free Accuracy Estimation for Test-Time Adaptation [7.079932622432037]
テスト時間適応(TTA)は、未ラベルのテストデータを使用して、事前訓練されたモデルをドメインシフトに適応するための実行可能なソリューションとして登場した。
ラベルのないTTAの精度推定アルゴリズムであるAETTAを提案する。
AETTAはベースラインと比較して平均19.8%の精度で推定可能である。
論文 参考訳(メタデータ) (2024-04-01T04:21:49Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Parameter-Efficient Learning for Text-to-Speech Accent Adaptation [58.356667204518985]
本稿では、テキスト音声(TTS)のための低リソースアクセント適応を開発するためのパラメータ効率学習(PEL)を提案する。
冷凍前訓練TSモデルからの資源効率適応は、元のトレーニング可能なパラメータの1.2%から0.8%しか使用していない。
実験結果から,提案手法はパラメータ効率の高いデコーダの微調整により,自然度と競合できることがわかった。
論文 参考訳(メタデータ) (2023-05-18T22:02:59Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。