論文の概要: Keep It Private: Unsupervised Privatization of Online Text
- arxiv url: http://arxiv.org/abs/2405.10260v1
- Date: Thu, 16 May 2024 17:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-17 13:33:15.802790
- Title: Keep It Private: Unsupervised Privatization of Online Text
- Title(参考訳): プライベートにしておく - オンラインテキストの教師なしプライバタイズ
- Authors: Calvin Bao, Marine Carpuat,
- Abstract要約: 音声,感覚,プライバシのバランスを保った書き直しを生成するために,強化学習を通じて大規模言語モデルを微調整する自動テキスト民営化フレームワークを導入する。
短命長テキストからなる68kの著者による大規模な英語Reddit投稿に対して,これを広範囲に評価した。
- 参考スコア(独自算出の注目度): 13.381890596224867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Authorship obfuscation techniques hold the promise of helping people protect their privacy in online communications by automatically rewriting text to hide the identity of the original author. However, obfuscation has been evaluated in narrow settings in the NLP literature and has primarily been addressed with superficial edit operations that can lead to unnatural outputs. In this work, we introduce an automatic text privatization framework that fine-tunes a large language model via reinforcement learning to produce rewrites that balance soundness, sense, and privacy. We evaluate it extensively on a large-scale test set of English Reddit posts by 68k authors composed of short-medium length texts. We study how the performance changes among evaluative conditions including authorial profile length and authorship detection strategy. Our method maintains high text quality according to both automated metrics and human evaluation, and successfully evades several automated authorship attacks.
- Abstract(参考訳): 著者の難読化技術は、原作者の身元を隠すために自動的にテキストを書き直すことによって、オンラインコミュニケーションにおけるプライバシー保護を支援するという約束を掲げている。
しかしながら、難読化はNLP文学の狭い環境で評価され、主に非自然的な出力につながる表面的な編集操作で対処されてきた。
本研究では,音質,感覚,プライバシのバランスをとる書き直しを生成するために,強化学習を通じて大規模言語モデルを微調整する自動テキスト民営化フレームワークを提案する。
短命長テキストからなる68kの著者による大規模な英語Reddit投稿に対して,これを広範囲に評価した。
著者プロファイル長や著者検出戦略を含む評価条件における性能変化について検討する。
本手法は,自動計測と人的評価の両面から高いテキスト品質を維持し,複数の自動オーサシップ攻撃を回避した。
関連論文リスト
- TAROT: Task-Oriented Authorship Obfuscation Using Policy Optimization Methods [5.239989658197324]
著者の難読化は、著者の身元をテキスト内で偽装することを目的としている。
この変更は、プライバシーとユーティリティのバランスを取る必要がある。
政策最適化を用いたタスク指向オーサリング難読化(TAROT: Task-Oriented Authorship Obfuscation Using Policy Optimization)を提案する。
論文 参考訳(メタデータ) (2024-07-31T14:24:01Z) - IncogniText: Privacy-enhancing Conditional Text Anonymization via LLM-based Private Attribute Randomization [8.483679748399037]
IncogniTextは,テキストを匿名化して潜在的敵を誤認し,誤った属性値を予測する手法である。
実証評価の結果,私的属性の漏洩が90%以上減少した。
論文 参考訳(メタデータ) (2024-07-03T09:49:03Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [55.20137833039499]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Just Rewrite It Again: A Post-Processing Method for Enhanced Semantic Similarity and Privacy Preservation of Differentially Private Rewritten Text [3.3916160303055567]
本稿では,書き直したテキストを元のテキストと整合させることを目標とした,簡単な後処理手法を提案する。
以上の結果から,このような手法は,従来の入力よりも意味論的に類似した出力を生成するだけでなく,経験的プライバシ評価において平均的なスコアがよいテキストを生成することが示唆された。
論文 参考訳(メタデータ) (2024-05-30T08:41:33Z) - Large Language Models are Advanced Anonymizers [13.900633576526863]
敵の匿名化が、現在の業界レベルの匿名化を、その結果のユーティリティとプライバシの点で上回っていることを示す。
まず,敵対的LLM推論の面における匿名性を評価するための新しい設定を提案する。
論文 参考訳(メタデータ) (2024-02-21T14:44:00Z) - JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Protecting Anonymous Speech: A Generative Adversarial Network
Methodology for Removing Stylistic Indicators in Text [2.9005223064604078]
我々は,生成的敵ネットワークの構築によるオーサリングの匿名化への新たなアプローチを開発する。
完全自動方式は,コンテンツ保存や流布の点で他の手法と同等の結果が得られる。
我々のアプローチは、オープンセットの文脈に順応し、これまで遭遇したことのない著者の文章を匿名化することができる。
論文 参考訳(メタデータ) (2021-10-18T17:45:56Z) - On-the-Fly Controlled Text Generation with Experts and Anti-Experts [70.41630506059113]
本稿では,DExperts: Decoding-time Expertsを提案する。
私たちのアンサンブルの下では、出力トークンは専門家によって可能性が高く、おそらく反専門家によってのみ高い確率を得ます。
論文 参考訳(メタデータ) (2021-05-07T01:19:38Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。