論文の概要: Transparent and Fair Profiling in Employment Services: Evidence from Switzerland
- arxiv url: http://arxiv.org/abs/2509.11847v1
- Date: Mon, 15 Sep 2025 12:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.273608
- Title: Transparent and Fair Profiling in Employment Services: Evidence from Switzerland
- Title(参考訳): 雇用サービスにおける透明で公正なプロファイリング--スイスからの証拠
- Authors: Tim Räz,
- Abstract要約: 長期失業(LTU)は、求職者と公務員の両方にとって課題である。
プロファイリングツールは不透明でブラックボックスの機械学習モデルで、透明性と公正性の問題を提起している。
本稿では,スイスの行政データを用いて,解釈可能なモデルが代替となるかを検討する。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Long-term unemployment (LTU) is a challenge for both jobseekers and public employment services. Statistical profiling tools are increasingly used to predict LTU risk. Some profiling tools are opaque, black-box machine learning models, which raise issues of transparency and fairness. This paper investigates whether interpretable models could serve as an alternative, using administrative data from Switzerland. Traditional statistical, interpretable, and black-box models are compared in terms of predictive performance, interpretability, and fairness. It is shown that explainable boosting machines, a recent interpretable model, perform nearly as well as the best black-box models. It is also shown how model sparsity, feature smoothing, and fairness mitigation can enhance transparency and fairness with only minor losses in performance. These findings suggest that interpretable profiling provides an accountable and trustworthy alternative to black-box models without compromising performance.
- Abstract(参考訳): 長期失業(LTU)は、求職者と公務員の両方にとって課題である。
統計的プロファイリングツールは、LTUのリスクを予測するためにますます利用されている。
プロファイリングツールは不透明でブラックボックスの機械学習モデルで、透明性と公正性の問題を提起している。
本稿では,スイスの行政データを用いて,解釈可能なモデルが代替となるかを検討する。
従来の統計モデル、解釈可能モデル、ブラックボックスモデルは予測性能、解釈可能性、公正性の観点から比較される。
最近の解釈可能なモデルである説明可能なブースティングマシンは、最高のブラックボックスモデルとほぼ同等の性能を発揮している。
また、モデルのスパーシリティ、機能のスムーズ化、公平さの緩和が透明性と公平性を向上し、パフォーマンスがわずかに損なわれていることも示している。
これらの結果は,解釈可能なプロファイリングがブラックボックスモデルに対して,性能を損なうことなく,信頼性の高い代替手段となることを示唆している。
関連論文リスト
- Enhancing ML Models Interpretability for Credit Scoring [2.0073274354053736]
本稿では,ブラックボックスモデルから特徴選択を導出するポストホックな解釈と,予測能力と透明性を両立するガラスボックスモデルを訓練するハイブリッドアプローチを提案する。
Lending Clubのデータセットを用いて、ベンチマークブラックボックスモデルに匹敵する性能を達成し、わずか10の機能しか使用していないことを実証した。
論文 参考訳(メタデータ) (2025-09-14T18:47:38Z) - SWiFT: Soft-Mask Weight Fine-tuning for Bias Mitigation [12.770721233121984]
近年の研究では、機械学習(ML)モデルが現実のシナリオに偏りを示すことが示されている。
識別性能を保ちながら公平性を効果的に向上する脱バイアスフレームワークであるSoft-Mask Weight Fine-Tuning (SWiFT)を提案する。
論文 参考訳(メタデータ) (2025-08-26T09:03:18Z) - Predicting the Performance of Black-box LLMs through Self-Queries [60.87193950962585]
大規模言語モデル(LLM)は、AIシステムにおいてますます頼りになってきている。
本稿では、フォローアッププロンプトを使用し、異なる応答の確率を表現として捉え、ブラックボックス方式でLCMの特徴を抽出する。
これらの低次元表現上で線形モデルをトレーニングすると、インスタンスレベルでのモデル性能の信頼性を予測できることを示す。
論文 参考訳(メタデータ) (2025-01-02T22:26:54Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - fairml: A Statistician's Take on Fair Machine Learning Modelling [0.0]
本稿では,これまでの研究(Scutari, Panero, Proissl 2022)および関連モデルを文献で実装したfairmlパッケージについて述べる。
Fairmlは古典的な統計モデルと ペナル化された回帰結果に基づいて設計されています
フェアネスを強制するために使われる制約は、推定をモデル化することであり、望まれるモデルファミリと各アプリケーションに対するフェアネス定義の混合とマッチングを可能にする。
論文 参考訳(メタデータ) (2023-05-03T09:59:53Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Characterizing the risk of fairwashing [8.545202841051582]
我々は,不公平度が低い高忠実度説明モデルを構築することが可能であることを示す。
公正な説明モデルが訴訟群を超えて一般化可能であることを示す。
フェアウォッシング攻撃はブラックボックスモデル間で伝達可能であると結論付けている。
論文 参考訳(メタデータ) (2021-06-14T15:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。