論文の概要: Strategyproof Learning: Building Trustworthy User-Generated Datasets
- arxiv url: http://arxiv.org/abs/2106.02398v1
- Date: Fri, 4 Jun 2021 10:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:14:06.869114
- Title: Strategyproof Learning: Building Trustworthy User-Generated Datasets
- Title(参考訳): strategyproof learning: 信頼できるユーザ生成データセットの構築
- Authors: Sadegh Farhadkhani, Rachid Guerraoui and L\^e-Nguy\^en Hoang
- Abstract要約: 私たちは、おそらく驚くべきことに、データの誤レポートのインセンティブは致命的なものではないことを示しています。
実証可能な戦略の安全性を保証するために,最初のパーソナライズされた協調学習フレームワークであるLicchaviを提案する。
- 参考スコア(独自算出の注目度): 5.586191108738563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today's large-scale machine learning algorithms harness massive amounts of
user-generated data to train large models. However, especially in the context
of content recommendation with enormous social, economical and political
incentives to promote specific views, products or ideologies, strategic users
might be tempted to fabricate or mislabel data in order to bias algorithms in
their favor. Unfortunately, today's learning schemes strongly incentivize such
strategic data misreporting. This is a major concern, as it endangers the
trustworthiness of the entire training datasets, and questions the safety of
any algorithm trained on such datasets. In this paper, we show that, perhaps
surprisingly, incentivizing data misreporting is not a fatality. We propose the
first personalized collaborative learning framework, Licchavi, with provable
strategyproofness guarantees through a careful design of the underlying loss
function. Interestingly, we also prove that Licchavi is Byzantine resilient: it
tolerates a minority of users that provide arbitrary data.
- Abstract(参考訳): 今日の大規模機械学習アルゴリズムは、大量のユーザー生成データを利用して大規模モデルをトレーニングする。
しかし、特に、特定の見解、製品、イデオロギーを促進するための巨大な社会的、経済的、政治的インセンティブを持つコンテンツレコメンデーションの文脈では、戦略的ユーザは、アルゴリズムに偏見を与えるために、データを作成または誤ラベルする傾向がある。
残念なことに、今日の学習方式は、このような戦略的データ誤報を強くインセンティブ付けている。
トレーニングデータセット全体の信頼性を脅かし、そのようなデータセットでトレーニングされたアルゴリズムの安全性を疑問視するからだ。
本稿では、おそらく驚くべきことに、データの誤レポートのインセンティブは致命的ではないことを示す。
本稿では,基礎となる損失関数を注意深く設計することで,戦略的安全性を保証できる最初のパーソナライズされた協調学習フレームワークであるlicchaviを提案する。
興味深いことに、Licchaviがビザンツのレジリエントであることも証明しています。
関連論文リスト
- Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Transferable Unlearnable Examples [63.64357484690254]
第三者が許可なくデータのトレーニングを行うのを防ぐために、学べない戦略が導入された。
公開前にユーザーのデータに摂動を追加することで、公開データセットでトレーニングされたモデルを無効にすることを目指している。
本稿では、学習不可能な効果を他のトレーニング設定やデータセットに伝達することを目的とした、クラスワイズ・セパビリティ・ディミナント(CSD)に基づく新しい学習不可能な戦略を提案する。
論文 参考訳(メタデータ) (2022-10-18T19:23:52Z) - Data Poisoning Attacks and Defenses to Crowdsourcing Systems [26.147716118854614]
クラウドソーシングはデータ中毒攻撃に対して脆弱であることを示す。
悪意のあるクライアントは、集約されたデータを壊すために注意深く作られたデータを提供します。
悪質なクライアントの影響を減らすため、2つの防御策を提案する。
論文 参考訳(メタデータ) (2021-02-18T06:03:48Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。