論文の概要: Label Inference Attacks from Log-loss Scores
- arxiv url: http://arxiv.org/abs/2105.08266v1
- Date: Tue, 18 May 2021 04:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 00:16:38.693655
- Title: Label Inference Attacks from Log-loss Scores
- Title(参考訳): ログロススコアからのラベル推論攻撃
- Authors: Abhinav Aggarwal, Shiva Prasad Kasiviswanathan, Zekun Xu, Oluwaseyi
Feyisetan, Nathanael Teissier
- Abstract要約: 本稿では,データセットへの他のアクセスを伴わない単一(あるいは複数)のログロススコアからデータセットのラベルを推定する問題について検討する。
驚くべきことに、任意の有限個のラベルクラスに対して、注意深く構築された単一の予測ベクトルのログロススコアからデータセットのラベルを正確に推測できることが示されている。
本稿では,ログロススコアにノイズを加えたり,限定精度の演算を行うラベル推論アルゴリズム(アタック)を提案する。
- 参考スコア(独自算出の注目度): 11.780563744330038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Log-loss (also known as cross-entropy loss) metric is ubiquitously used
across machine learning applications to assess the performance of
classification algorithms. In this paper, we investigate the problem of
inferring the labels of a dataset from single (or multiple) log-loss score(s),
without any other access to the dataset. Surprisingly, we show that for any
finite number of label classes, it is possible to accurately infer the labels
of the dataset from the reported log-loss score of a single carefully
constructed prediction vector if we allow arbitrary precision arithmetic.
Additionally, we present label inference algorithms (attacks) that succeed even
under addition of noise to the log-loss scores and under limited precision
arithmetic. All our algorithms rely on ideas from number theory and
combinatorics and require no model training. We run experimental simulations on
some real datasets to demonstrate the ease of running these attacks in
practice.
- Abstract(参考訳): ログロス(クロスエントロピー損失とも呼ばれる)メトリックは、分類アルゴリズムのパフォーマンスを評価するために機械学習アプリケーションに広く使われている。
本稿では,データセットのラベルを単一の(あるいは複数)log-lossスコアから推測する問題を,他のデータにアクセスせずに検討する。
驚くべきことに、任意の有限個のラベルクラスに対して、任意の精度演算が可能であれば、注意深く構築された単一の予測ベクトルのログロススコアからデータセットのラベルを正確に推測できることが示されている。
さらに,log-lossスコアにノイズを加えたり,演算精度が制限されたりしても成功するラベル推論アルゴリズム(attacks)を提案する。
私たちのアルゴリズムはすべて数論と組合せ論のアイデアに依存しており、モデルトレーニングは必要ありません。
実際のデータセット上で実験的なシミュレーションを行い、実際の攻撃の容易さを実証した。
関連論文リスト
- AllMatch: Exploiting All Unlabeled Data for Semi-Supervised Learning [5.0823084858349485]
提案するSSLアルゴリズムであるAllMatchは,擬似ラベル精度の向上とラベルなしデータの100%利用率の向上を実現する。
その結果、AllMatchは既存の最先端メソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-06-22T06:59:52Z) - Partial-Label Regression [54.74984751371617]
部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
論文 参考訳(メタデータ) (2023-06-15T09:02:24Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Scalable Penalized Regression for Noise Detection in Learning with Noisy
Labels [44.79124350922491]
理論的に保証された雑音ラベル検出フレームワークを用いて,雑音ラベルを用いた学習のためのノイズデータの検出と除去を行う。
具体的には,ネットワーク特徴量と1ホットラベルの線形関係をモデル化するためのペナル化回帰を設計する。
多数のカテゴリやトレーニングデータを含むデータセットに対して,フレームワークをスケーラブルにするために,トレーニングセット全体を小片に分割する分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-15T11:09:58Z) - Detecting Handwritten Mathematical Terms with Sensor Based Data [71.84852429039881]
本稿では,手書きの数学的用語を自動分類する,スタビロによるUbiComp 2021チャレンジの解を提案する。
入力データセットには異なるライターのデータが含まれており、ラベル文字列は合計15の異なる文字から構成されている。
論文 参考訳(メタデータ) (2021-09-12T19:33:34Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Computationally Efficient Wasserstein Loss for Structured Labels [37.33134854462556]
階層的テキスト分類タスクに着目した木-ワッサーシュタイン距離正規化LDLアルゴリズムを提案する。
提案手法は,学習中にラベルの構造を十分に考慮し,計算時間とメモリ使用量の観点からシンクホーンアルゴリズムと好適に比較できることを示す。
論文 参考訳(メタデータ) (2021-03-01T10:45:13Z) - Analysis of label noise in graph-based semi-supervised learning [2.4366811507669124]
機械学習では、目に見えないデータに一般化できるモデルを監督するためにラベルを取得する必要がある。
多くの場合、私たちのデータのほとんどはラベル付けされていない。
半教師付き学習(SSL)は、ラベルと入力データ分布の関係について強い仮定をすることで緩和する。
論文 参考訳(メタデータ) (2020-09-27T22:13:20Z) - Label Noise Types and Their Effects on Deep Learning [0.0]
本研究では,異なる種類のラベルノイズが学習に与える影響を詳細に分析する。
本稿では,特徴に依存したラベルノイズを生成する汎用フレームワークを提案する。
他の研究者がノイズの多いラベルでアルゴリズムをテストしやすいように、最も一般的に使用されているベンチマークデータセットに対して、破損したラベルを共有します。
論文 参考訳(メタデータ) (2020-03-23T18:03:39Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。