論文の概要: Making Translators Privacy-aware on the User's Side
- arxiv url: http://arxiv.org/abs/2312.04068v1
- Date: Thu, 7 Dec 2023 06:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:07:49.158755
- Title: Making Translators Privacy-aware on the User's Side
- Title(参考訳): 利用者側でプライバシーを意識した翻訳者を作る
- Authors: Ryoma Sato
- Abstract要約: 我々はPRISMを提案し、機械翻訳システムの利用者が自身のイニシアチブでデータのプライバシーを維持することができるようにした。
PRISMは、翻訳精度を著しく損なうことなく、プライバシー機能を追加する。
- 参考スコア(独自算出の注目度): 17.912507269030577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose PRISM to enable users of machine translation systems to preserve
the privacy of data on their own initiative. There is a growing demand to apply
machine translation systems to data that require privacy protection. While
several machine translation engines claim to prioritize privacy, the extent and
specifics of such protection are largely ambiguous. First, there is often a
lack of clarity on how and to what degree the data is protected. Even if
service providers believe they have sufficient safeguards in place,
sophisticated adversaries might still extract sensitive information. Second,
vulnerabilities may exist outside of these protective measures, such as within
communication channels, potentially leading to data leakage. As a result, users
are hesitant to utilize machine translation engines for data demanding high
levels of privacy protection, thereby missing out on their benefits. PRISM
resolves this problem. Instead of relying on the translation service to keep
data safe, PRISM provides the means to protect data on the user's side. This
approach ensures that even machine translation engines with inadequate privacy
measures can be used securely. For platforms already equipped with privacy
safeguards, PRISM acts as an additional protection layer, reinforcing their
security furthermore. PRISM adds these privacy features without significantly
compromising translation accuracy. Our experiments demonstrate the
effectiveness of PRISM using real-world translators, T5 and ChatGPT
(GPT-3.5-turbo), and the datasets with two languages. PRISM effectively
balances privacy protection with translation accuracy.
- Abstract(参考訳): 我々はPRISMを提案し、機械翻訳システムの利用者が自身のイニシアチブでデータのプライバシーを維持することができるようにした。
プライバシー保護を必要とするデータに機械翻訳システムを適用するという需要が高まっている。
いくつかの機械翻訳エンジンはプライバシーを優先しているが、そのような保護の程度と具体性はほとんど曖昧である。
第一に、データがどの程度保護されているか、そしてどの程度保護されているかの明確さが欠如していることが多い。
サービスプロバイダが十分な保護策があると信じているとしても、高度な敵は機密情報を抽出する可能性がある。
第二に、脆弱性は通信チャネル内の保護措置の外に存在し、データ漏洩につながる可能性がある。
その結果、ユーザーは高いレベルのプライバシー保護を必要とするデータに対して機械翻訳エンジンを利用するのをためらうため、その利点を欠くことになる。
PRISMはこの問題を解決する。
データを安全に保つために翻訳サービスに頼る代わりに、PRISMはユーザの側でデータを保護する手段を提供する。
このアプローチは、プライバシー対策が不十分な機械翻訳エンジンでも安全に使用できることを保証します。
既にプライバシー保護を装備しているプラットフォームでは、PRISMは追加の保護層として機能し、セキュリティをさらに強化する。
PRISMはこれらのプライバシー機能を翻訳精度を著しく損なうことなく追加する。
実世界のトランスレータであるT5とChatGPT(GPT-3.5-turbo)と2つの言語を用いたデータセットを用いたPRISMの有効性を示す。
PRISMは、効果的にプライバシー保護と翻訳精度のバランスをとる。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [55.20137833039499]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.67432819687349]
本稿では,大規模言語モデル推論におけるユーザ入力のプライバシ保護のためのプライバシストアを提案する。
PrivacyRestoreは、ユーザ入力のプライバシスパンを直接削除し、推論中のアクティベーションステアリングを通じてプライバシ情報を復元する。
実験によると、PrivacyRestoreは、許容レベルのパフォーマンスと推論効率を維持しながら、プライベート情報を保護することができる。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - InferDPT: Privacy-Preserving Inference for Black-box Large Language Model [66.07752875835506]
InferDPTは、ブラックボックスLSMのプライバシ保護推論のための最初の実用的なフレームワークである。
RANTEXTはInferDPTの摂動モジュールに組み込まれた新しい微分プライバシー機構である。
論文 参考訳(メタデータ) (2023-10-18T18:00:11Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - An Example of Privacy and Data Protection Best Practices for Biometrics
Data Processing in Border Control: Lesson Learned from SMILE [0.9442139459221784]
データの誤用、個人のプライバシーの妥協、および/または承認されたデータの処理は不可逆である。
これは部分的には、システム開発プロセスにおける設計によるデータ保護とプライバシの統合のための方法やガイダンスの欠如によるものである。
データコントローラと開発者のためのガイダンスを提供するために、プライバシーとデータ保護のベストプラクティスの例を示す。
論文 参考訳(メタデータ) (2022-01-10T15:34:43Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z) - PrivEdge: From Local to Distributed Private Training and Prediction [43.02041269239928]
PrivEdgeはプライバシ保護機械学習(ML)のためのテクニック
PrivEdgeは、トレーニングのためにデータを提供するユーザのプライバシと、予測サービスを使用するユーザのプライバシを保護する。
PrivEdgeは、プライバシの保存や、プライベートイメージと非プライベートイメージの区別において、高い精度とリコールを持っていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:26:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。