論文の概要: Participatory Systems for Personalized Prediction
- arxiv url: http://arxiv.org/abs/2302.03874v1
- Date: Wed, 8 Feb 2023 04:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 17:24:35.427145
- Title: Participatory Systems for Personalized Prediction
- Title(参考訳): パーソナライズド予測のための参加システム
- Authors: Hailey James, Chirag Nagpal, Katherine Heller, Berk Ustun
- Abstract要約: 我々は、個人が予測時にパーソナライズをオプトインできる、Emphparticipatory systemと呼ばれる新しい予測モデルを導入した。
臨床予測課題における参加型システムに関する包括的実証的研究を行い、パーソナライズとインキュベーションのための一般的なアプローチと比較した。
その結果、参加型システムは、個人データを報告するすべてのグループにおいて、パフォーマンスとプライバシを向上させる方法で、同意を容易にし、通知することができることを示した。
- 参考スコア(独自算出の注目度): 6.971072154703825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are often personalized based on information that is
protected, sensitive, self-reported, or costly to acquire. These models use
information about people, but do not facilitate nor inform their
\emph{consent}. Individuals cannot opt out of reporting information that a
model needs to personalize their predictions, nor tell if they would benefit
from personalization in the first place. In this work, we introduce a new
family of prediction models, called \emph{participatory systems}, that allow
individuals to opt into personalization at prediction time. We present a
model-agnostic algorithm to learn participatory systems for supervised learning
tasks where models are personalized with categorical group attributes. We
conduct a comprehensive empirical study of participatory systems in clinical
prediction tasks, comparing them to common approaches for personalization and
imputation. Our results demonstrate that participatory systems can facilitate
and inform consent in a way that improves performance and privacy across all
groups who report personal data.
- Abstract(参考訳): マシンラーニングモデルは、保護、機密性、自己報告、あるいは取得コストのかかる情報に基づいてパーソナライズされることが多い。
これらのモデルは、人の情報を使うが、彼らの \emph{consent} を助長したり、知らせたりしない。
個人は、モデルが予測をパーソナライズする必要があるという報告情報や、そもそもパーソナライゼーションの恩恵を受けるかどうかをオプトアウトすることはできない。
本研究では,個人が予測時にパーソナライゼーションにオプトインできる,新たな予測モデルである \emph{participatory systems} を導入する。
本稿では,モデルが分類群属性でパーソナライズされる教師付き学習タスクの参加システムを学ぶためのモデル非依存アルゴリズムを提案する。
臨床予測課題における参加システムに関する包括的実証研究を行い,パーソナライゼーションとインプテーションの共通アプローチと比較した。
以上の結果から,参加型システムは,個人データを報告するグループ全体のパフォーマンスとプライバシを向上させる方法で,同意を促進・通知できることが示されている。
関連論文リスト
- When Machine Learning Gets Personal: Understanding Fairness of Personalized Models [5.002195711989324]
機械学習におけるパーソナライズには、人口統計学や医療データなどの個人属性を組み込むことで、モデルを個々のユーザにカスタマイズすることが含まれる。
パーソナライゼーションは予測精度を向上させることができるが、バイアスを増幅し、説明可能性を減らすこともできる。
本研究は、個人化が予測精度と説明品質の両方に与える影響を評価する統一的な枠組みを導入する。
論文 参考訳(メタデータ) (2025-02-05T00:17:33Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - IP-FL: Incentivized and Personalized Federated Learning [13.13354915338396]
まず、インセンティブとパーソナライゼーションを相互関連課題として扱い、パーソナライズされた学習を促進するインセンティブメカニズムを用いて解決することを提案する。
我々のアプローチは、高品質なデータを持つ自己認識型クライアントに対するパーソナライズされたモデル魅力を高め、アクティブで一貫した参加につながります。
論文 参考訳(メタデータ) (2023-04-15T09:02:06Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - UserIdentifier: Implicit User Representations for Simple and Effective
Personalized Sentiment Analysis [36.162520010250056]
提案するUserIdentifierは,すべてのユーザに対して単一の共有モデルをトレーニングするための新しいスキームである。
提案手法は,入力データに固定された非トレーニング可能なユーザ識別子を追加することで,パーソナライズされた応答を生成する。
論文 参考訳(メタデータ) (2021-10-01T00:21:33Z) - Fairness-Aware Online Personalization [16.320648868892526]
個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
最初に、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平に行動することを学ぶことを実証する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:16:17Z) - Survey of Personalization Techniques for Federated Learning [0.08594140167290096]
フェデレートされた機械学習は、プライバシを損なうことなく、プライベートな分散データから機械学習モデルを学習することを可能にする。
本稿では、パーソナライズの必要性を強調し、このトピックに関する最近の研究について調査する。
論文 参考訳(メタデータ) (2020-03-19T10:47:55Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。