論文の概要: Protecting Privacy in Classifiers by Token Manipulation
- arxiv url: http://arxiv.org/abs/2407.01334v1
- Date: Mon, 1 Jul 2024 14:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:10:33.551871
- Title: Protecting Privacy in Classifiers by Token Manipulation
- Title(参考訳): トークン操作による分類器のプライバシー保護
- Authors: Re'em Harel, Yair Elboher, Yuval Pinter,
- Abstract要約: テキスト分類モデルに焦点をあて、様々なトークンマッピングとコンテキスト化された操作機能について検討する。
いくつかのトークンマッピング関数の実装は簡単で簡単ですが、ダウンストリームタスクのパフォーマンスに大きな影響を与えます。
比較すると、文脈化された操作はパフォーマンスを改善する。
- 参考スコア(独自算出の注目度): 3.5033860596797965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using language models as a remote service entails sending private information to an untrusted provider. In addition, potential eavesdroppers can intercept the messages, thereby exposing the information. In this work, we explore the prospects of avoiding such data exposure at the level of text manipulation. We focus on text classification models, examining various token mapping and contextualized manipulation functions in order to see whether classifier accuracy may be maintained while keeping the original text unrecoverable. We find that although some token mapping functions are easy and straightforward to implement, they heavily influence performance on the downstream task, and via a sophisticated attacker can be reconstructed. In comparison, the contextualized manipulation provides an improvement in performance.
- Abstract(参考訳): 言語モデルをリモートサービスとして使用するには、信頼できないプロバイダにプライベート情報を送信する必要がある。
さらに、潜在的な盗聴者はメッセージを傍受し、情報を公開することができる。
本研究では,テキスト操作のレベルにおいて,このようなデータ露出を回避する可能性について検討する。
本稿では,テキスト分類モデルに焦点をあて,さまざまなトークンマッピングやコンテキスト化操作機能を調べて,元のテキストを検索不能にしつつ,分類器の精度を維持できるかどうかを確かめる。
いくつかのトークンマッピング関数の実装は簡単で簡単ですが、ダウンストリームタスクのパフォーマンスに大きな影響を与えます。
比較すると、文脈化された操作はパフォーマンスを改善する。
関連論文リスト
- IDT: Dual-Task Adversarial Attacks for Privacy Protection [8.312362092693377]
プライバシを保護するには、センシティブな属性を検出できないモデル内の表現を使用する必要がある。
補助的および解釈可能なモデルによる予測を分析し,どのトークンが変更に重要かを識別する手法であるIDTを提案する。
我々は、異なるタスクに適したNLPのための異なるデータセットを評価する。
論文 参考訳(メタデータ) (2024-06-28T04:14:35Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Privacy Leakage in Text Classification: A Data Extraction Approach [9.045332526072828]
テキスト分類領域における潜在的なプライバシー漏洩について,意図しないトレーニングデータの暗記の問題を調査して検討する。
モデルによって提供されるクラスラベルの可能性を利用して,部分テキストの欠落トークンを抽出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-09T16:14:26Z) - Span Classification with Structured Information for Disfluency Detection
in Spoken Utterances [47.05113261111054]
本稿では,音声音声からテキスト中の不一致を検出する新しいアーキテクチャを提案する。
提案手法は, 広範に使われているイングリッシュスイッチボードを用いて, ディフルエンシ検出の最先端化を実現する。
論文 参考訳(メタデータ) (2022-03-30T03:22:29Z) - DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting [91.56988987393483]
本稿では,CLIPから事前学習した知識を暗黙的かつ明示的に活用することで,高密度予測のための新しい枠組みを提案する。
具体的には,CLIPにおける元の画像テキストマッチング問題を画素テキストマッチング問題に変換し,画素テキストスコアマップを用いて高密度予測モデルの学習を指導する。
本手法は,任意の密集予測システムや種々の事前学習された視覚バックボーンに適用可能な,モデルに依存しない手法である。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - Honest-but-Curious Nets: Sensitive Attributes of Private Inputs can be
Secretly Coded into the Entropy of Classifiers' Outputs [1.0742675209112622]
非センシティブなターゲット属性の分類のために訓練されたディープニューラルネットワークは、入力データのセンシティブな属性を明らかにすることができる。
深層分類器は,ユーザの入力データの機密属性を,推論時に秘密裏に符号化するように訓練できることを示す。
論文 参考訳(メタデータ) (2021-05-25T16:27:57Z) - Robust and Verifiable Information Embedding Attacks to Deep Neural
Networks via Error-Correcting Codes [81.85509264573948]
ディープラーニングの時代、ユーザは、サードパーティの機械学習ツールを使用して、ディープニューラルネットワーク(DNN)分類器をトレーニングすることが多い。
情報埋め込み攻撃では、攻撃者は悪意のあるサードパーティの機械学習ツールを提供する。
本研究では,一般的なポストプロセッシング手法に対して検証可能で堅牢な情報埋め込み攻撃を設計することを目的とする。
論文 参考訳(メタデータ) (2020-10-26T17:42:42Z) - Privacy Guarantees for De-identifying Text Transformations [17.636430224292866]
我々は、差分プライバシーに基づいて、テキスト変換に基づく復号化手法の正式なプライバシー保証を導出する。
複数の自然言語理解タスクにおける深層学習モデルを用いた,より洗練された単語間置換手法との比較を行った。
単語ごとの置換だけが、様々なタスクのパフォーマンス低下に対して堅牢であることに気付きました。
論文 参考訳(メタデータ) (2020-08-07T12:06:42Z) - How Context Affects Language Models' Factual Predictions [134.29166998377187]
検索システムからの情報を学習済みの言語モデルと純粋に教師なしの方法で統合する。
この方法で事前学習された言語モデルを拡張することで、性能が劇的に向上し、教師なしにもかかわらず、結果として得られるシステムは、教師なしの機械読解ベースラインと競合する、と報告する。
論文 参考訳(メタデータ) (2020-05-10T09:28:12Z) - Expertise Style Transfer: A New Task Towards Better Communication
between Experts and Laymen [88.30492014778943]
そこで我々は,手動で注釈付きデータセットを手動で提供し,専門的なスタイルの転送を行う新しいタスクを提案する。
このタスクの解決は、プロの言語を単純化するだけでなく、レイメンの記述の正確さと専門性の向上にも寄与する。
スタイル転送とテキスト単純化のための5つの最先端モデルのベンチマーク性能を確立する。
論文 参考訳(メタデータ) (2020-05-02T04:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。