論文の概要: Controlled Model Debiasing through Minimal and Interpretable Updates
- arxiv url: http://arxiv.org/abs/2502.21284v1
- Date: Fri, 28 Feb 2025 18:03:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:44.566779
- Title: Controlled Model Debiasing through Minimal and Interpretable Updates
- Title(参考訳): 最小かつ解釈可能な更新による制御モデルデバイアス
- Authors: Federico Di Gennaro, Thibault Laugel, Vincent Grari, Marcin Detyniecki,
- Abstract要約: 2つのデシラタに依存する新しい教師付き学習課題である制御モデルデバイアスの概念を導入する。
モデルに依存しず,テスト時の感度特性を必要としないアルゴリズムCOMMODを提案する。
提案手法は,概念に基づくアーキテクチャと逆学習を組み合わせることで,最先端のデバイアス手法に匹敵する性能を達成できることを示す。
- 参考スコア(独自算出の注目度): 6.089774484591287
- License:
- Abstract: Traditional approaches to learning fair machine learning models often require rebuilding models from scratch, generally without accounting for potentially existing previous models. In a context where models need to be retrained frequently, this can lead to inconsistent model updates, as well as redundant and costly validation testing. To address this limitation, we introduce the notion of controlled model debiasing, a novel supervised learning task relying on two desiderata: that the differences between new fair model and the existing one should be (i) interpretable and (ii) minimal. After providing theoretical guarantees to this new problem, we introduce a novel algorithm for algorithmic fairness, COMMOD, that is both model-agnostic and does not require the sensitive attribute at test time. In addition, our algorithm is explicitly designed to enforce minimal and interpretable changes between biased and debiased predictions -a property that, while highly desirable in high-stakes applications, is rarely prioritized as an explicit objective in fairness literature. Our approach combines a concept-based architecture and adversarial learning and we demonstrate through empirical results that it achieves comparable performance to state-of-the-art debiasing methods while performing minimal and interpretable prediction changes.
- Abstract(参考訳): 公正な機械学習モデルを学習する従来のアプローチでは、多くの場合、既存のモデルを考慮することなく、スクラッチからモデルを再構築する必要がある。
モデルを頻繁に再トレーニングする必要がある状況では、一貫性のないモデル更新や、冗長でコストのかかる検証テストにつながる可能性がある。
この制限に対処するために,2つのデシダラタに依存する新しい教師付き学習課題である制御モデルデバイアスの概念を導入する。
訳語 解釈可能な;解釈可能な
(ii)最小限。
この新たな問題に対する理論的保証を提供した後、我々は、モデルに依存しず、テスト時にセンシティブな属性を必要としないアルゴリズムCOMMODを導入する。
さらに,本アルゴリズムは,偏差予測と偏差予測の最小かつ解釈可能な変更を明示的に行うように設計されている。
提案手法は, 概念に基づくアーキテクチャと逆学習を組み合わせることで, 最小かつ解釈可能な予測変更を行いながら, 最先端のデバイアス手法に匹敵する性能を達成できることを実証的に示す。
関連論文リスト
- LoRE-Merging: Exploring Low-Rank Estimation For Large Language Model Merging [10.33844295243509]
基本モデルであるtextscLoRE-Merging へのアクセスを必要とせず,タスクベクトルの低ランク推定に基づくモデルマージのための統一フレームワークを提案する。
我々のアプローチは、細調整されたモデルからのタスクベクトルは、しばしば支配的な特異値の限られた数しか示さず、低ランク推定が干渉しにくくなるという観察に動機づけられている。
論文 参考訳(メタデータ) (2025-02-15T10:18:46Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Coverage-Validity-Aware Algorithmic Recourse [21.642948522310782]
本稿では,モデルシフトに対するロバスト性を示すモデルに依存しない談話を生成する新しい枠組みを提案する。
筆者らのフレームワークはまず,非線形(ブラックボックス)モデルのカバレッジを意識した線形サロゲートを構築する。
我々の代理は近似超平面を直感的に推し進め、頑健なだけでなく解釈可能なレコースも容易にすることを示した。
論文 参考訳(メタデータ) (2023-11-19T15:21:49Z) - fairml: A Statistician's Take on Fair Machine Learning Modelling [0.0]
本稿では,これまでの研究(Scutari, Panero, Proissl 2022)および関連モデルを文献で実装したfairmlパッケージについて述べる。
Fairmlは古典的な統計モデルと ペナル化された回帰結果に基づいて設計されています
フェアネスを強制するために使われる制約は、推定をモデル化することであり、望まれるモデルファミリと各アプリケーションに対するフェアネス定義の混合とマッチングを可能にする。
論文 参考訳(メタデータ) (2023-05-03T09:59:53Z) - Deep Grey-Box Modeling With Adaptive Data-Driven Models Toward
Trustworthy Estimation of Theory-Driven Models [88.63781315038824]
本稿では,ニューラルネットワークのアーキテクチャとトレーニング目標にわずかな変化を伴って,レギュレータの動作を経験的に分析することのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T10:42:26Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - SE3M: A Model for Software Effort Estimation Using Pre-trained Embedding
Models [0.8287206589886881]
本稿では,事前学習した埋め込みモデルの有効性を評価する。
両方のアプローチでトレーニング済みのジェネリックモデルは、微調整プロセスを経ている。
テスト結果は非常に有望で、事前トレーニングされたモデルを使用して、要求テキストのみに基づいてソフトウェアの労力を見積もることができることに気付きました。
論文 参考訳(メタデータ) (2020-06-30T14:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。