論文の概要: Multi-label Learning from Privacy-Label
- arxiv url: http://arxiv.org/abs/2312.13312v1
- Date: Wed, 20 Dec 2023 09:09:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 17:14:42.268665
- Title: Multi-label Learning from Privacy-Label
- Title(参考訳): プライバシラベルからのマルチラベル学習
- Authors: Zhongnian Li, Haotian Ren, Tongfeng Sun, Zhichen Li
- Abstract要約: プライバシラベルからのマルチラベル学習(MLLPL)という新しい設定を提案する。
ラベル付けフェーズでは、各プライバシラベルと非プライバシラベルをランダムに組み合わせて、プライバシラベルユニット(PLU)を形成する。
PLU内のラベルが正であれば、その単位は正とラベル付けされ、そうでなければ、図1に示すように負とラベル付けされる。
- 参考スコア(独自算出の注目度): 6.403667773024114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-abel Learning (MLL) often involves the assignment of multiple relevant
labels to each instance, which can lead to the leakage of sensitive information
(such as smoking, diseases, etc.) about the instances. However, existing MLL
suffer from failures in protection for sensitive information. In this paper, we
propose a novel setting named Multi-Label Learning from Privacy-Label (MLLPL),
which Concealing Labels via Privacy-Label Unit (CLPLU). Specifically, during
the labeling phase, each privacy-label is randomly combined with a non-privacy
label to form a Privacy-Label Unit (PLU). If any label within a PLU is
positive, the unit is labeled as positive; otherwise, it is labeled negative,
as shown in Figure 1. PLU ensures that only non-privacy labels are appear in
the label set, while the privacy-labels remain concealed. Moreover, we further
propose a Privacy-Label Unit Loss (PLUL) to learn the optimal classifier by
minimizing the empirical risk of PLU. Experimental results on multiple
benchmark datasets demonstrate the effectiveness and superiority of the
proposed method.
- Abstract(参考訳): マルチアベル学習(mll:multi-abel learning)は、各インスタンスに複数の関連するラベルを割り当てることによって、インスタンスに関する機密情報(喫煙、病気など)が漏洩する可能性がある。
しかし、既存のMLLは機密情報の保護に失敗している。
本稿では、プライバシ・ラベル・ユニット(CLPLU)を介してラベルを収集するMLLPL(Multi-Label Learning from Privacy-Label)という新しい設定を提案する。
具体的には、ラベル付けフェーズにおいて、各プライバシラベルをランダムに非プライバシラベルと組み合わせてプライバシラベルユニット(PLU)を形成する。
PLU内のラベルが正であれば、その単位は正とラベル付けされ、そうでなければ、図1に示すように負とラベル付けされる。
PLUは、プライバシラベルだけがラベルセットに表示され、プライバシラベルが隠されていることを保証します。
さらに,pluのリスクを最小化することにより,最適分類器を学習するためのプライバシラベル単位損失(plul)を提案する。
複数のベンチマークデータセットに対する実験結果は,提案手法の有効性と優位性を示す。
関連論文リスト
- Exploiting Conjugate Label Information for Multi-Instance Partial-Label Learning [61.00359941983515]
MIPL(Multi-instance partial-label Learning)は、各トレーニングサンプルが1つの真のラベルといくつかの偽陽性を含む候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現されるシナリオに対処する。
ELIMIPLは共役ラベル情報を利用して曖昧性を改善する。
論文 参考訳(メタデータ) (2024-08-26T15:49:31Z) - BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning [113.8799653759137]
我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:26:23Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Pushing One Pair of Labels Apart Each Time in Multi-Label Learning: From
Single Positive to Full Labels [29.11589378265006]
MLL(Multi-Label Learning)では、高価なコストと限られた知識のために、出現するすべてのオブジェクトを正確にアノテートすることが極めて困難である。
既存のマルチラベル学習手法は未知のラベルを負とみなし、偽の負をノイズラベルとして導入する。
SPMLL(Single Positive Multi-Label Learning)では,サンプル毎に1つの正のラベルを提供する必要がある。
論文 参考訳(メタデータ) (2023-02-28T16:08:12Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Does Label Differential Privacy Prevent Label Inference Attacks? [26.87328379562665]
ラベル差分プライバシー(ラベルDP)は、パブリック機能と機密性の高いプライベートラベルを持つデータセット上で、プライベートMLモデルをトレーニングするための一般的なフレームワークである。
厳格なプライバシー保証にもかかわらず、実際にはラベルDPはラベル推論攻撃(LIAs)を妨げない。
論文 参考訳(メタデータ) (2022-02-25T20:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。