論文の概要: Participatory Personalization in Classification
- arxiv url: http://arxiv.org/abs/2302.03874v2
- Date: Wed, 11 Oct 2023 23:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 15:46:17.057440
- Title: Participatory Personalization in Classification
- Title(参考訳): 分類における参加型パーソナライゼーション
- Authors: Hailey Joren, Chirag Nagpal, Katherine Heller, Berk Ustun
- Abstract要約: 我々は、個人が予測時にパーソナライズをオプトインできる、参加型システムと呼ばれる分類モデルのファミリーを導入する。
臨床予測タスクにおける参加システムに関する総合的な実証的研究を行い、パーソナライズとインキュベーションのための共通のアプローチでそれらをベンチマークする。
その結果、参加型システムは、個人データを報告するグループ全体のパフォーマンスとデータ利用を改善しつつ、同意を容易にし、情報提供できることを示した。
- 参考スコア(独自算出の注目度): 8.234011679612436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are often personalized with information that is
protected, sensitive, self-reported, or costly to acquire. These models use
information about people but do not facilitate nor inform their consent.
Individuals cannot opt out of reporting personal information to a model, nor
tell if they benefit from personalization in the first place. We introduce a
family of classification models, called participatory systems, that let
individuals opt into personalization at prediction time. We present a
model-agnostic algorithm to learn participatory systems for personalization
with categorical group attributes. We conduct a comprehensive empirical study
of participatory systems in clinical prediction tasks, benchmarking them with
common approaches for personalization and imputation. Our results demonstrate
that participatory systems can facilitate and inform consent while improving
performance and data use across all groups who report personal data.
- Abstract(参考訳): 機械学習モデルは、しばしば保護され、機密性があり、自己報告され、取得にコストがかかる情報によってパーソナライズされる。
これらのモデルは、人々の情報を使用するが、彼らの同意を助長したり、知らせたりしない。
個人は、モデルに個人情報を報告することや、そもそもパーソナライゼーションの恩恵を受けるかどうかを判断することからオプトアウトすることはできない。
我々は、個人が予測時にパーソナライズをオプトインできる、参加型システムと呼ばれる分類モデルのファミリーを導入する。
分類群属性を用いたパーソナライズのための参加型学習アルゴリズムを提案する。
臨床予測タスクにおける参加システムに関する包括的実証研究を行い,パーソナライゼーションとインプテーションの共通アプローチをベンチマークした。
その結果、参加型システムは、個人データを報告するグループ全体のパフォーマンスとデータ利用を改善しつつ、同意を容易にし、情報提供できることを示した。
関連論文リスト
- Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - IP-FL: Incentivized and Personalized Federated Learning [13.13354915338396]
まず、インセンティブとパーソナライゼーションを相互関連課題として扱い、パーソナライズされた学習を促進するインセンティブメカニズムを用いて解決することを提案する。
我々のアプローチは、高品質なデータを持つ自己認識型クライアントに対するパーソナライズされたモデル魅力を高め、アクティブで一貫した参加につながります。
論文 参考訳(メタデータ) (2023-04-15T09:02:06Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - UserIdentifier: Implicit User Representations for Simple and Effective
Personalized Sentiment Analysis [36.162520010250056]
提案するUserIdentifierは,すべてのユーザに対して単一の共有モデルをトレーニングするための新しいスキームである。
提案手法は,入力データに固定された非トレーニング可能なユーザ識別子を追加することで,パーソナライズされた応答を生成する。
論文 参考訳(メタデータ) (2021-10-01T00:21:33Z) - Opportunistic Federated Learning: An Exploration of Egocentric
Collaboration for Pervasive Computing Applications [20.61034787249924]
我々は、異なるユーザに属する個々のデバイスが堅牢なモデルを学ぶための新しいアプローチ、機会論的フェデレーションラーニングを定義する。
本稿では,このようなアプローチの実現可能性と限界を考察し,出会い型ペアワイド協調学習を支援する枠組みを策定する。
論文 参考訳(メタデータ) (2021-03-24T15:30:21Z) - Fairness-Aware Online Personalization [16.320648868892526]
個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
最初に、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平に行動することを学ぶことを実証する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:16:17Z) - Survey of Personalization Techniques for Federated Learning [0.08594140167290096]
フェデレートされた機械学習は、プライバシを損なうことなく、プライベートな分散データから機械学習モデルを学習することを可能にする。
本稿では、パーソナライズの必要性を強調し、このトピックに関する最近の研究について調査する。
論文 参考訳(メタデータ) (2020-03-19T10:47:55Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。