論文の概要: A Ship of Theseus: Curious Cases of Paraphrasing in LLM-Generated Texts
- arxiv url: http://arxiv.org/abs/2311.08374v1
- Date: Tue, 14 Nov 2023 18:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 13:01:52.795363
- Title: A Ship of Theseus: Curious Cases of Paraphrasing in LLM-Generated Texts
- Title(参考訳): theusの船:llm生成テキストにおけるパラフレージングの奇妙な事例
- Authors: Nafis Irtiza Tripto, Saranya Venkatraman, Dominik Macko, Robert Moro,
Ivan Srba, Adaku Uchendu, Thai Le, Dongwon Lee
- Abstract要約: textitテキストは、多くのパラフレーズを繰り返すと、オリジナルの著者を維持できるのか?
この調査は、原作者が原作者であるべきなのか、AI駆動のツールであるべきなのか、人間の生成したコンテンツと密接に類似したテキストを生成するためのツールの独立した能力を考えると、テキストイットを中心に展開されている。
- 参考スコア(独自算出の注目度): 11.923138364071068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of text manipulation and linguistic transformation, the question
of authorship has always been a subject of fascination and philosophical
inquiry. Much like the \textbf{Ship of Theseus paradox}, which ponders whether
a ship remains the same when each of its original planks is replaced, our
research delves into an intriguing question: \textit{Does a text retain its
original authorship when it undergoes numerous paraphrasing iterations?}
Specifically, since Large Language Models (LLMs) have demonstrated remarkable
proficiency in the generation of both original content and the modification of
human-authored texts, a pivotal question emerges concerning the determination
of authorship in instances where LLMs or similar paraphrasing tools are
employed to rephrase the text. This inquiry revolves around \textit{whether
authorship should be attributed to the original human author or the AI-powered
tool, given the tool's independent capacity to produce text that closely
resembles human-generated content.} Therefore, we embark on a philosophical
voyage through the seas of language and authorship to unravel this intricate
puzzle.
- Abstract(参考訳): テキスト操作と言語変換の領域では、著者シップの問題は、常に魅力と哲学的探求の主題であった。
テセウス・パラドックスの『textbf{Ship of Theseus paradox}』のように、船が元の板を交換した時に同じ状態のままであるかどうかを考えると、我々の研究は興味深い疑問に陥る: \textit{Does a text has its original authorship when under many paraphrasing iterations?
特に,Large Language Models (LLMs) は,原文の生成と人文の修正に顕著な習熟性を示したため,LLM や類似の言い回しツールを用いて文章を言い換える場合に,著者の判断に関して重要な疑問が浮かび上がっている。
この質問は、人間が生成したコンテンツによく似たテキストを生成するツールの独立性を考えると、著者シップは、オリジナルの人間作者またはai駆動ツールに帰着されるべきである。
そこで我々は,この複雑なパズルを解き明かすために,言語と著者の海を哲学的に旅する。
関連論文リスト
- Threads of Subtlety: Detecting Machine-Generated Texts Through Discourse
Motifs [20.462992218235623]
本稿は,人間によって書かれたテキストにおいて,識別可能な言語的特徴と独特な言語的特性を識別する調査について述べる。
我々は階層的な解析木とハイパーグラフを利用して、人間と機械生成テキストの両方で生成されたテキストに特有の談話パターンを明らかにする。
論文 参考訳(メタデータ) (2024-02-16T11:20:30Z) - Deep dive into language traits of AI-generated Abstracts [5.209583971923267]
ChatGPTのような生成言語モデルは、人間のような文章を生成する能力に注意を向けている。
本研究では,ChatGPTが生成する抽象概念を,長さとバウンドがはるかに短い方法で検出しようと試みる。
テキストの意味的特徴と語彙的特性を抽出し、従来の機械学習モデルがこれらの抽象概念を確実に検出できることを観察する。
論文 参考訳(メタデータ) (2023-12-17T06:03:33Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Deepfake Text Detection in the Wild [51.07597090941853]
近年の大規模言語モデルの発展により、人間のものと同等のレベルのテキスト生成が可能になった。
これらのモデルは、ニュース記事の執筆、ストーリー生成、科学的な執筆など、幅広いコンテンツにまたがる強力な能力を示している。
このような機能は、人間によるテキストと機械によるテキストのギャップをさらに狭め、ディープフェイクテキスト検出の重要性を強調している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - Can You Fool AI by Doing a 180? $\unicode{x2013}$ A Case Study on
Authorship Analysis of Texts by Arata Osada [2.6954666679827137]
本稿では,倫理学と著者分析の分野をカバーする2つの疑問に答える試みである。
まず,著者識別システムが,作品の作者への正しい属性付けが可能かどうかを,長年にわたって大きな心理的移行を経た上で確認することに興味を抱いた。
第2に、著者の倫理的価値観の進化の観点から、著者の帰属体系が単一著者の発見に困難に直面する場合、それが何を意味するのかを確認した。
論文 参考訳(メタデータ) (2022-07-19T05:43:49Z) - Tracing Text Provenance via Context-Aware Lexical Substitution [81.49359106648735]
文脈を考慮した語彙置換に基づく自然言語透かし方式を提案する。
主観的および主観的尺度の両面において,我々の透かし方式は原文の意味的整合性を十分に維持することができる。
論文 参考訳(メタデータ) (2021-12-15T04:27:33Z) - How much do language models copy from their training data? Evaluating
linguistic novelty in text generation using RAVEN [63.79300884115027]
現在の言語モデルは高品質なテキストを生成することができる。
彼らは、これまで見たテキストを単にコピーしているか、それとも一般化可能な言語的抽象化を学んだのか?
本稿では、生成したテキストの新規性を評価するための分析スイートであるRAVENを紹介する。
論文 参考訳(メタデータ) (2021-11-18T04:07:09Z) - InvBERT: Text Reconstruction from Contextualized Embeddings used for
Derived Text Formats of Literary Works [1.6058099298620423]
Digital Humanities and Computational Literary Studiesは文献調査にテキストマイニング手法を適用している。
著作権の制限により、関連するデジタル化された文学作品の入手は制限されている。
BERTを逆転しようとする試みは、エンコーダのパーツをコンテキスト化された埋め込みと共に公開することが重要であることを示唆している。
論文 参考訳(メタデータ) (2021-09-21T11:35:41Z) - Tortured phrases: A dubious writing style emerging in science. Evidence
of critical issues affecting established journals [69.76097138157816]
確率的テキストジェネレータは10年以上にわたって偽の科学論文の作成に使われてきた。
複雑なAIを利用した生成技術は、人間のものと区別できないテキストを生成する。
一部のウェブサイトはテキストを無料で書き直し、拷問されたフレーズでいっぱいのgobbledegookを生成する。
論文 参考訳(メタデータ) (2021-07-12T20:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。