論文の概要: When Machine Learning Gets Personal: Understanding Fairness of Personalized Models
- arxiv url: http://arxiv.org/abs/2502.02786v1
- Date: Wed, 05 Feb 2025 00:17:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:27:05.424722
- Title: When Machine Learning Gets Personal: Understanding Fairness of Personalized Models
- Title(参考訳): 機械学習が個人化されるとき:パーソナライズされたモデルの公平性を理解する
- Authors: Louisa Cornelis, Guillermo Bernárdez, Haewon Jeong, Nina Miolane,
- Abstract要約: 機械学習におけるパーソナライズには、人口統計学や医療データなどの個人属性を組み込むことで、モデルを個々のユーザにカスタマイズすることが含まれる。
パーソナライゼーションは予測精度を向上させることができるが、バイアスを増幅し、説明可能性を減らすこともできる。
本研究は、個人化が予測精度と説明品質の両方に与える影響を評価する統一的な枠組みを導入する。
- 参考スコア(独自算出の注目度): 5.002195711989324
- License:
- Abstract: Personalization in machine learning involves tailoring models to individual users by incorporating personal attributes such as demographic or medical data. While personalization can improve prediction accuracy, it may also amplify biases and reduce explainability. This work introduces a unified framework to evaluate the impact of personalization on both prediction accuracy and explanation quality across classification and regression tasks. We derive novel upper bounds for the number of personal attributes that can be used to reliably validate benefits of personalization. Our analysis uncovers key trade-offs. We show that regression models can potentially utilize more personal attributes than classification models. We also demonstrate that improvements in prediction accuracy due to personalization do not necessarily translate to enhanced explainability -- underpinning the importance to evaluate both metrics when personalizing machine learning models in critical settings such as healthcare. Validated with a real-world dataset, this framework offers practical guidance for balancing accuracy, fairness, and interpretability in personalized models.
- Abstract(参考訳): 機械学習におけるパーソナライズには、人口統計学や医療データなどの個人属性を組み込むことで、モデルを個々のユーザにカスタマイズすることが含まれる。
パーソナライゼーションは予測精度を向上させることができるが、バイアスを増幅し、説明可能性を減らすこともできる。
本研究は,個人化が分類・回帰作業における予測精度と説明品質に与える影響を評価する統一的な枠組みを導入する。
パーソナライゼーションのメリットを確実に検証するために使用できる個人属性の数に対して、新しい上限を導出する。
私たちの分析は重要なトレードオフを明らかにします。
回帰モデルは分類モデルよりも個人属性を活用できる可能性が示唆された。
また、パーソナライゼーションによる予測精度の改善は、必ずしも説明可能性の向上に結びつくものではないことを実証し、医療などの重要な環境で機械学習モデルをパーソナライズする際に、両方の指標を評価することの重要性を示唆している。
現実世界のデータセットで検証されたこのフレームワークは、パーソナライズされたモデルにおける正確性、公平性、解釈可能性のバランスをとるための実践的なガイダンスを提供する。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Robust personnel rostering: how accurate should absenteeism predictions be? [2.265037251840661]
欠勤による人事異動は、従業員の労働時間に対する最後の数分の調整を必要とすることが多い。
このような変化の影響を緩和するための一般的な戦略は、従業員にリザーブシフトを割り当てることである。
我々は、機械学習モデルからの欠如予測を用いて、適切な数のリザーブシフトをスケジュールする予測を最適化するアプローチを仮定する。
論文 参考訳(メタデータ) (2024-06-26T07:16:18Z) - Personality Profiling: How informative are social media profiles in predicting personal information? [0.04096453902709291]
我々は、人々のオンラインデジタルフットプリントが、彼らのマイアーズ・ブリッグス・パーソナリティのタイプをプロファイリングできる範囲について調べる。
我々は,ロジスティック回帰,ナイーブベイズ,サポートベクターマシン(SVM),ランダムフォレストという4つのモデルを比較した。
SVMモデルは、完全なパーソナリティの型を予測するために20.95%の精度を達成する。
論文 参考訳(メタデータ) (2023-09-15T03:09:43Z) - Data Minimization at Inference Time [44.15285550981899]
法律、採用、医療といった高い利害関係を持つドメインでは、学習モデルは推論に敏感なユーザーデータに依存することが多い。
本稿では,推定時刻の正確な予測にセンホール入力機能を使う必要があるかどうかを問う。
この論文は、パーソナライズされた環境では、個人が意思決定の正確さを損なうことなく、機能の小さなサブセットを公開する必要があることを実証している。
論文 参考訳(メタデータ) (2023-05-27T23:03:41Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Personalized Privacy Auditing and Optimization at Test Time [44.15285550981899]
本稿では、モデルがテスト時に正確な予測を返却するために、入力機能を必要とするかどうかを問う。
パーソナライズされた設定の下では、各個人は最終的な決定に影響を与えることなく、これらの機能の小さなサブセットだけをリリースする必要があるかもしれない。
複数の学習課題に対する評価は、個人が同じレベルの精度を確保するために、情報の10%しか報告できないことを示している。
論文 参考訳(メタデータ) (2023-01-31T20:16:59Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Model Comparison and Calibration Assessment: User Guide for Consistent
Scoring Functions in Machine Learning and Actuarial Practice [0.0]
本発明のユーザガイドは、モデルの校正や妥当性を評価する統計的手法を再検討し、明確化する。
主に既存の成果とベストプラクティスの教育的な提示に焦点を当てている。
結果は、労働者の報酬と顧客の混乱に関する2つの実データケーススタディに伴って説明される。
論文 参考訳(メタデータ) (2022-02-25T15:52:19Z) - DeepCoDA: personalized interpretability for compositional health data [58.841559626549376]
解釈可能性により、ドメインエキスパートはモデルの妥当性と信頼性を評価することができる。
医療の分野では、解釈可能なモデルは、技術的な要因とは無関係に、関連する生物学的メカニズムを含意すべきである。
我々は、パーソナライズされた解釈可能性について、サンプル固有の特徴属性の尺度として定義する。
論文 参考訳(メタデータ) (2020-06-02T05:14:22Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。