論文の概要: Attribution and Obfuscation of Neural Text Authorship: A Data Mining
Perspective
- arxiv url: http://arxiv.org/abs/2210.10488v2
- Date: Thu, 20 Oct 2022 01:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 10:55:39.267960
- Title: Attribution and Obfuscation of Neural Text Authorship: A Data Mining
Perspective
- Title(参考訳): ニューラルテキスト著者の帰属と難読化--データマイニングの視点から
- Authors: Adaku Uchendu and Thai Le and Dongwon Lee
- Abstract要約: オーサリング・アトリビューション(オーサリング・アトリビューション、英: Authorship Attribution、AA)とオーサリング・オブファシケーション(オーサリング・オブファシケーション、英: Authorship Obfuscation、AO)は、プライバシ研究への関心を高める研究課題である。
伝統的に、著者の概念とそれに伴うプライバシーに関する懸念は、人間の著作者のみに限られる。
悪意ある使用時にニューラルネットワークが持つ影響と潜在的な脅威により、従来のAA/AOソリューションの限界を理解することが重要になっている。
- 参考スコア(独自算出の注目度): 18.43284483535401
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Two interlocking research questions of growing interest and importance in
privacy research are Authorship Attribution (AA) and Authorship Obfuscation
(AO). Given an artifact, especially a text t in question, an AA solution aims
to accurately attribute t to its true author out of many candidate authors
while an AO solution aims to modify t to hide its true authorship.
Traditionally, the notion of authorship and its accompanying privacy concern is
only toward human authors. However, in recent years, due to the explosive
advancements in Neural Text Generation (NTG) techniques in NLP, capable of
synthesizing human-quality open-ended texts (so-called "neural texts"), one has
to now consider authorships by humans, machines, or their combination. Due to
the implications and potential threats of neural texts when used maliciously,
it has become critical to understand the limitations of traditional AA/AO
solutions and develop novel AA/AO solutions in dealing with neural texts. In
this survey, therefore, we make a comprehensive review of recent literature on
the attribution and obfuscation of neural text authorship from a Data Mining
perspective, and share our view on their limitations and promising research
directions.
- Abstract(参考訳): プライバシ研究における関心の高まりと重要性に関する2つのインターロック研究は、authorship attribution(aa)とauthorship obfuscation(ao)である。
問題のあるアーティファクト、特にテキストtが与えられた場合、AAソリューションは、多くの候補著者の中から、tを真の著者に正確に属性することを目的としており、AOソリューションは、tを変更して真の著者性を隠そうとしている。
伝統的に、著者の概念とそれに伴うプライバシーに関する懸念は、人間の著作者のみに限られる。
しかし、近年のNLPにおけるNTG(Neural Text Generation)技術の爆発的な進歩により、人間の質の高いオープンエンドテキスト(いわゆる「ニューラルテキスト」)を合成できるようになり、人間、機械、またはそれらの組み合わせによる著作を考慮せざるを得なくなった。
悪意ある使用時のニューラルテキストの意味と潜在的な脅威のため、従来のAA/AOソリューションの限界を理解し、ニューラルテキストを扱う新しいAA/AOソリューションを開発することが重要になっている。
そこで本研究では,データマイニングの観点から,ニューラルネットワーク著者の帰属と難読化に関する最近の文献を総合的にレビューし,その限界と有望な研究方向性について考察する。
関連論文リスト
- Authorship Attribution in the Era of LLMs: Problems, Methodologies, and Challenges [16.35265384114857]
LLM(Large Language Models)の急速な進歩は、人間と機械のオーサシップの境界線を曖昧にしている。
この文献レビューは、この急速に発展する分野における芸術の状況を理解することに興味を持つ研究者や実践者のためのロードマップを提供する。
論文 参考訳(メタデータ) (2024-08-16T17:58:49Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [55.20137833039499]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Authenticity in Authorship: The Writer's Integrity Framework for Verifying Human-Generated Text [0.0]
著者の一体性(Writer's Integrity)"フレームワークは、製品ではなく、執筆プロセスを監視し、人間の著作者の行動的な足跡を捉えます。
我々は,人間の知的作業の検証に革命をもたらす可能性を強調し,学術的完全性と知的財産権の維持におけるその役割を強調した。
本稿では、IT企業が効果的にフレームワークをマネタイズするためのビジネスモデルを概説する。
論文 参考訳(メタデータ) (2024-04-05T23:00:34Z) - Decoding the AI Pen: Techniques and Challenges in Detecting AI-Generated Text [4.927763944523323]
大規模言語モデル(LLM)は、人間に似たテキストを生成する素晴らしい能力を示すことによって、自然言語生成(NLG)の分野に革命をもたらした。
しかし、彼らの普及した利用は、思慮深い検査、倫理的精査、責任ある実践を必要とする課題をもたらす。
論文 参考訳(メタデータ) (2024-03-09T01:13:54Z) - JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Neural Authorship Attribution: Stylometric Analysis on Large Language
Models [16.63955074133222]
GPT-4、PaLM、Llamaのような大規模言語モデル(LLM)は、AIによるテキスト生成を著しく推進している。
誤用の可能性に対する懸念が高まっているため、AI生成テキストの鑑識の必要性が高まっている。
論文 参考訳(メタデータ) (2023-08-14T17:46:52Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Revisiting the Roles of "Text" in Text Games [102.22750109468652]
本稿では,強化学習におけるテキストの役割について検討する。
本稿では,関連するコンテキスト情報を近似状態ハッシュに抽出する簡単な手法を提案する。
このような軽量なプラグインは最先端のテキストエージェントとの競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-15T21:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。