論文の概要: A Ship of Theseus: Curious Cases of Paraphrasing in LLM-Generated Texts
- arxiv url: http://arxiv.org/abs/2311.08374v1
- Date: Tue, 14 Nov 2023 18:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 13:01:52.795363
- Title: A Ship of Theseus: Curious Cases of Paraphrasing in LLM-Generated Texts
- Title(参考訳): theusの船:llm生成テキストにおけるパラフレージングの奇妙な事例
- Authors: Nafis Irtiza Tripto, Saranya Venkatraman, Dominik Macko, Robert Moro,
Ivan Srba, Adaku Uchendu, Thai Le, Dongwon Lee
- Abstract要約: textitテキストは、多くのパラフレーズを繰り返すと、オリジナルの著者を維持できるのか?
この調査は、原作者が原作者であるべきなのか、AI駆動のツールであるべきなのか、人間の生成したコンテンツと密接に類似したテキストを生成するためのツールの独立した能力を考えると、テキストイットを中心に展開されている。
- 参考スコア(独自算出の注目度): 11.923138364071068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of text manipulation and linguistic transformation, the question
of authorship has always been a subject of fascination and philosophical
inquiry. Much like the \textbf{Ship of Theseus paradox}, which ponders whether
a ship remains the same when each of its original planks is replaced, our
research delves into an intriguing question: \textit{Does a text retain its
original authorship when it undergoes numerous paraphrasing iterations?}
Specifically, since Large Language Models (LLMs) have demonstrated remarkable
proficiency in the generation of both original content and the modification of
human-authored texts, a pivotal question emerges concerning the determination
of authorship in instances where LLMs or similar paraphrasing tools are
employed to rephrase the text. This inquiry revolves around \textit{whether
authorship should be attributed to the original human author or the AI-powered
tool, given the tool's independent capacity to produce text that closely
resembles human-generated content.} Therefore, we embark on a philosophical
voyage through the seas of language and authorship to unravel this intricate
puzzle.
- Abstract(参考訳): テキスト操作と言語変換の領域では、著者シップの問題は、常に魅力と哲学的探求の主題であった。
テセウス・パラドックスの『textbf{Ship of Theseus paradox}』のように、船が元の板を交換した時に同じ状態のままであるかどうかを考えると、我々の研究は興味深い疑問に陥る: \textit{Does a text has its original authorship when under many paraphrasing iterations?
特に,Large Language Models (LLMs) は,原文の生成と人文の修正に顕著な習熟性を示したため,LLM や類似の言い回しツールを用いて文章を言い換える場合に,著者の判断に関して重要な疑問が浮かび上がっている。
この質問は、人間が生成したコンテンツによく似たテキストを生成するツールの独立性を考えると、著者シップは、オリジナルの人間作者またはai駆動ツールに帰着されるべきである。
そこで我々は,この複雑なパズルを解き明かすために,言語と著者の海を哲学的に旅する。
関連論文リスト
- A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Are Paraphrases Generated by Large Language Models Invertible? [4.148732457277201]
パラフレーズ変換の問題を考える: パラフレーズ化された文書が与えられたら、原文を復元しようとする。
我々は、追加の著者固有の文脈を伴わず、かつ無関係に、パラフレーズ逆変換モデルを微調整する。
パラフレーズ化された機械生成テキストから始めると、学習した反転モデルを用いて文書のかなりの部分を復元できることを示す。
論文 参考訳(メタデータ) (2024-10-29T00:46:24Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Towards Effective Paraphrasing for Information Disguise [13.356934367660811]
著者の執筆したオンラインコミュニケーションがセンシティブなドメインに関連する場合,ID(Information Disguise)の研究が重要となる。
著者の投稿から与えられた文に対して,パラフレージングの方向に文の反復摂動を行う枠組みを提案する。
本研究は, パープレキシティスコアを用いたフレーズ重要度ランキングの新たな手法を導入し, ビームサーチによる複数レベルのフレーズ置換を行う。
論文 参考訳(メタデータ) (2023-11-08T21:12:59Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Can You Fool AI by Doing a 180? $\unicode{x2013}$ A Case Study on
Authorship Analysis of Texts by Arata Osada [2.6954666679827137]
本稿では,倫理学と著者分析の分野をカバーする2つの疑問に答える試みである。
まず,著者識別システムが,作品の作者への正しい属性付けが可能かどうかを,長年にわたって大きな心理的移行を経た上で確認することに興味を抱いた。
第2に、著者の倫理的価値観の進化の観点から、著者の帰属体系が単一著者の発見に困難に直面する場合、それが何を意味するのかを確認した。
論文 参考訳(メタデータ) (2022-07-19T05:43:49Z) - Tracing Text Provenance via Context-Aware Lexical Substitution [81.49359106648735]
文脈を考慮した語彙置換に基づく自然言語透かし方式を提案する。
主観的および主観的尺度の両面において,我々の透かし方式は原文の意味的整合性を十分に維持することができる。
論文 参考訳(メタデータ) (2021-12-15T04:27:33Z) - InvBERT: Text Reconstruction from Contextualized Embeddings used for
Derived Text Formats of Literary Works [1.6058099298620423]
Digital Humanities and Computational Literary Studiesは文献調査にテキストマイニング手法を適用している。
著作権の制限により、関連するデジタル化された文学作品の入手は制限されている。
BERTを逆転しようとする試みは、エンコーダのパーツをコンテキスト化された埋め込みと共に公開することが重要であることを示唆している。
論文 参考訳(メタデータ) (2021-09-21T11:35:41Z) - Tortured phrases: A dubious writing style emerging in science. Evidence
of critical issues affecting established journals [69.76097138157816]
確率的テキストジェネレータは10年以上にわたって偽の科学論文の作成に使われてきた。
複雑なAIを利用した生成技術は、人間のものと区別できないテキストを生成する。
一部のウェブサイトはテキストを無料で書き直し、拷問されたフレーズでいっぱいのgobbledegookを生成する。
論文 参考訳(メタデータ) (2021-07-12T20:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。