論文の概要: ALISON: Fast and Effective Stylometric Authorship Obfuscation
- arxiv url: http://arxiv.org/abs/2402.00835v1
- Date: Thu, 1 Feb 2024 18:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 14:01:44.140402
- Title: ALISON: Fast and Effective Stylometric Authorship Obfuscation
- Title(参考訳): ALISON: 高速かつ効果的なスティロメトリオーサシップの難読化
- Authors: Eric Xing, Saranya Venkatraman, Thai Le, Dongwon Lee
- Abstract要約: オーサリング・アトリビューション (AA) とオーサリング・オブファシケーション (AO) は、プライバシ研究の重要性を高めるための2つの課題である。
本稿では,トレーニング/難読化時間を劇的に短縮する実用的なAO手法ALISONを提案する。
また、ALISONは、4つのSOTA AAメソッドがChatGPT生成したテキストのオーサシップを正確に決定するのを防ぐことができることを示した。
- 参考スコア(独自算出の注目度): 14.297046770461264
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Authorship Attribution (AA) and Authorship Obfuscation (AO) are two competing
tasks of increasing importance in privacy research. Modern AA leverages an
author's consistent writing style to match a text to its author using an AA
classifier. AO is the corresponding adversarial task, aiming to modify a text
in such a way that its semantics are preserved, yet an AA model cannot
correctly infer its authorship. To address privacy concerns raised by
state-of-the-art (SOTA) AA methods, new AO methods have been proposed but
remain largely impractical to use due to their prohibitively slow training and
obfuscation speed, often taking hours. To this challenge, we propose a
practical AO method, ALISON, that (1) dramatically reduces training/obfuscation
time, demonstrating more than 10x faster obfuscation than SOTA AO methods, (2)
achieves better obfuscation success through attacking three transformer-based
AA methods on two benchmark datasets, typically performing 15% better than
competing methods, (3) does not require direct signals from a target AA
classifier during obfuscation, and (4) utilizes unique stylometric features,
allowing sound model interpretation for explainable obfuscation. We also
demonstrate that ALISON can effectively prevent four SOTA AA methods from
accurately determining the authorship of ChatGPT-generated texts, all while
minimally changing the original text semantics. To ensure the reproducibility
of our findings, our code and data are available at:
https://github.com/EricX003/ALISON.
- Abstract(参考訳): authorship attribution (aa) と authorship obfuscation (ao) は、プライバシー研究における重要性を高める2つの競合するタスクである。
Modern AAは著者の一貫性のある書き込みスタイルを利用して、AA分類器を使用して著者にテキストをマッチさせる。
AOは、テキストのセマンティクスが保存されるように修正することを目的としているが、AAモデルは、その著者を正しく推測することはできない。
state-of-the-art (sota) aaメソッドによって引き起こされるプライバシーの懸念に対処するために、新しいaoメソッドが提案されているが、そのトレーニングの遅さと難読化のスピードがしばしば数時間かかるため、ほとんど使用できないままである。
To this challenge, we propose a practical AO method, ALISON, that (1) dramatically reduces training/obfuscation time, demonstrating more than 10x faster obfuscation than SOTA AO methods, (2) achieves better obfuscation success through attacking three transformer-based AA methods on two benchmark datasets, typically performing 15% better than competing methods, (3) does not require direct signals from a target AA classifier during obfuscation, and (4) utilizes unique stylometric features, allowing sound model interpretation for explainable obfuscation.
また、ALISONは、4つのSOTA AAメソッドがChatGPT生成したテキストの著者名を決定するのを効果的に防止できることを示した。
我々の発見の再現性を確保するため、コードとデータは以下の通りである。
関連論文リスト
- TAROT: Task-Oriented Authorship Obfuscation Using Policy Optimization Methods [5.239989658197324]
著者の難読化は、著者の身元をテキスト内で偽装することを目的としている。
この変更は、プライバシーとユーティリティのバランスを取る必要がある。
政策最適化を用いたタスク指向オーサリング難読化(TAROT: Task-Oriented Authorship Obfuscation Using Policy Optimization)を提案する。
論文 参考訳(メタデータ) (2024-07-31T14:24:01Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - UPTON: Preventing Authorship Leakage from Public Text Release via Data
Poisoning [17.956089294338984]
トレーニングサンプルにおける著者の特徴を弱めるためにブラックボックスデータ中毒法を利用した新しいソリューションであるUPTONを提案する。
UPTONがAAモデルの精度を非現実的なレベルに下げる実験的な検証法を提案する。
UPTONは、著者の利用可能なクリーンな文章に基づいてすでに訓練されているAAモデルに有効である。
論文 参考訳(メタデータ) (2022-11-17T17:49:57Z) - Avengers Ensemble! Improving Transferability of Authorship Obfuscation [7.962140902232626]
スティロメトリのアプローチは現実世界の著者の帰属に非常に効果的であることが示されている。
本稿では,トランスファー可能なオーサシップ難読化のためのアンサンブルに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-15T00:11:40Z) - Semantic-Preserving Adversarial Text Attacks [85.32186121859321]
深層モデルの脆弱性を調べるために, Bigram と Unigram を用いた適応的セマンティック保存最適化法 (BU-SPO) を提案する。
提案手法は,既存手法と比較して最小の単語数を変更することで,攻撃成功率とセマンティックス率を最大化する。
論文 参考訳(メタデータ) (2021-08-23T09:05:18Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - DeepStyle: User Style Embedding for Authorship Attribution of Short
Texts [57.503904346336384]
オーサシップアトリビューション(AA)は、多くのアプリケーションで重要で広く研究されている研究トピックです。
近年の研究では、深層学習がAAタスクの精度を大幅に向上させることが示されている。
本稿では,ユーザの健全な書き込みスタイルの表現を学習する新しい埋め込み型フレームワークであるDeepStyleを提案する。
論文 参考訳(メタデータ) (2021-03-14T15:56:37Z) - A Girl Has A Name: Detecting Authorship Obfuscation [12.461503242570643]
著者の属性は、テクストの分析に基づいてテキストの著者を特定することを目的としている。
著者の難読化は、テキストのスタイルを変更することによって著者の帰属を防ぐことを目的としている。
我々は、敵の脅威モデルの下で、最先端のオーサシップ難読化手法のステルス性を評価する。
論文 参考訳(メタデータ) (2020-05-02T04:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。