論文の概要: Artificial Intelligence versus Maya Angelou: Experimental evidence that
people cannot differentiate AI-generated from human-written poetry
- arxiv url: http://arxiv.org/abs/2005.09980v2
- Date: Tue, 8 Sep 2020 19:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 04:38:09.832590
- Title: Artificial Intelligence versus Maya Angelou: Experimental evidence that
people cannot differentiate AI-generated from human-written poetry
- Title(参考訳): 人工知能対マヤ・アンジェロウ:AI生成と人間の詩を区別できない実験的証拠
- Authors: Nils K\"obis, Luca Mossink
- Abstract要約: 自然言語生成アルゴリズム(NLG)は、多くの注目を集め、議論を呼んだ。
一つの理由は、アルゴリズムが様々な領域にまたがって人間のようなテキストを生成する能力を持っているからである。
我々は,現在最先端の自然言語生成アルゴリズムであるGPT-2に対する行動反応を評価する2つの実験を行った。
これらの結果が人間に似たテキストを生成するためのNLGアルゴリズムの性能にどう影響するかを議論し、そのような学習アルゴリズムを人力実験環境で研究する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The release of openly available, robust natural language generation
algorithms (NLG) has spurred much public attention and debate. One reason lies
in the algorithms' purported ability to generate human-like text across various
domains. Empirical evidence using incentivized tasks to assess whether people
(a) can distinguish and (b) prefer algorithm-generated versus human-written
text is lacking. We conducted two experiments assessing behavioral reactions to
the state-of-the-art Natural Language Generation algorithm GPT-2 (Ntotal =
830). Using the identical starting lines of human poems, GPT-2 produced samples
of poems. From these samples, either a random poem was chosen
(Human-out-of-the-loop) or the best one was selected (Human-in-the-loop) and in
turn matched with a human-written poem. In a new incentivized version of the
Turing Test, participants failed to reliably detect the
algorithmically-generated poems in the Human-in-the-loop treatment, yet
succeeded in the Human-out-of-the-loop treatment. Further, people reveal a
slight aversion to algorithm-generated poetry, independent on whether
participants were informed about the algorithmic origin of the poem
(Transparency) or not (Opacity). We discuss what these results convey about the
performance of NLG algorithms to produce human-like text and propose
methodologies to study such learning algorithms in human-agent experimental
settings.
- Abstract(参考訳): オープンソースで堅牢な自然言語生成アルゴリズム(NLG)のリリースは、多くの注目を集め、議論を呼んだ。
一つの理由は、アルゴリズムが様々な領域にまたがって人間のようなテキストを生成する能力を持っているからである。
インセンティブ付きタスクを用いた人格評価の実証的証拠
a)を区別し、区別できる
(b)人間が書いたテキストよりもアルゴリズムが好まれる。
最新の自然言語生成アルゴリズムgpt-2 (ntotal = 830) に対する行動反応を2つの実験で評価した。
GPT-2は人間の詩の開始ラインを同一に使用し、詩のサンプルを作成した。
これらのサンプルから、ランダムな詩(Human-out-of-loop)が選ばれたか、最も良い詩(Human-in-the-loop)が選ばれた。
チューリングテストの新たなインセンティブ版では、被験者はループ内処理においてアルゴリズムによって生成された詩を確実に検出できなかったが、ループ内処理に成功している。
さらに、参加者が詩のアルゴリズム的起源(透明性)について知らされたかどうか(オパシティ)によらず、アルゴリズムが生成した詩に対する若干の嫌悪が露呈する。
これらの結果が人間に似たテキストを生成するためのNLGアルゴリズムの性能にどう影響するかを議論し、そのような学習アルゴリズムを人力実験環境で研究する手法を提案する。
関連論文リスト
- Evaluating the Efficacy of Hybrid Deep Learning Models in Distinguishing
AI-Generated Text [0.0]
私の研究は、AI生成テキストと人間の文章を正確に区別するために、最先端のハイブリッドディープラーニングモデルを使用することを調査します。
さまざまなソースからAIと人文からなる慎重に選択されたデータセットを利用し、それぞれに指示をタグ付けして、堅牢な方法論を適用しました。
論文 参考訳(メタデータ) (2023-11-27T06:26:53Z) - Learning interactions to boost human creativity with bandits and GPT-4 [10.817205577415434]
我々は、人間の創造性、すなわち意味的特徴生成の限界を示す心理的タスクを採用する。
人間と言語AI(GPT-4)を用いた実験では、参加者がアルゴリズムによって生成されたヒントを要求できる変種に対して、標準タスクにおける振る舞いを対比する。
人間とAIはヒントからも同様の利点を示しており、驚くほど、AIの反応から学ぶバンディットは、人間の行動から学ぶのと同じプロンプト戦略を好む。
論文 参考訳(メタデータ) (2023-11-16T16:53:17Z) - DEMASQ: Unmasking the ChatGPT Wordsmith [63.8746084667206]
そこで本研究では,ChatGPT生成内容を正確に識別する効果的なChatGPT検出器DEMASQを提案する。
提案手法は, 人為的, 機械的, 人為的, 人為的, 機械的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人
論文 参考訳(メタデータ) (2023-11-08T21:13:05Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Towards Automatic Boundary Detection for Human-AI Collaborative Hybrid
Essay in Education [10.606131520965604]
本研究では,滅多に調査されていない現実的な環境下でのAIコンテンツ検出について検討する。
まず,人書きコンテンツとAI生成コンテンツ間の遷移点の同定として,検出タスクを定式化した。
次に、エンコーダトレーニングプロセス中にAI生成コンテンツと人書きコンテンツとを分離する2段階のアプローチを提案した。
論文 参考訳(メタデータ) (2023-07-23T08:47:51Z) - Beyond Black Box AI-Generated Plagiarism Detection: From Sentence to
Document Level [4.250876580245865]
既存のAI生成テキスト分類器は精度が限られており、しばしば偽陽性を生成する。
自然言語処理(NLP)技術を用いた新しい手法を提案する。
与えられた質問の複数のパラフレーズ付きバージョンを生成し、それを大きな言語モデルに入力し、回答を生成する。
本研究では,コサイン類似度に基づくコントラスト的損失関数を用いて,生成文と学生の反応とをマッチングする。
論文 参考訳(メタデータ) (2023-06-13T20:34:55Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - A Contrastive Framework for Neural Text Generation [46.845997620234265]
モデル変性の根底にある理由はトークン表現の異方性分布であることを示す。
モデル表現空間を校正するための対照的な学習目標であるSimCTGと,生成したテキストのコヒーレンスを維持しつつ多様性を高めるためのデコード手法であるコントラスト検索を提案する。
論文 参考訳(メタデータ) (2022-02-13T21:46:14Z) - BACON: Deep-Learning Powered AI for Poetry Generation with Author
Linguistic Style Transfer [91.3755431537592]
本稿では,BACONについて述べる。BACONは,著者の言語スタイルを伝達する自動詩生成器のプロトタイプである。
有限状態機械、確率モデル、人工ニューラルネットワーク、深層学習の概念と技法を組み合わせて、任意の著者のスタイルで豊かな美的品質でオリジナルの詩を書く。
論文 参考訳(メタデータ) (2021-12-14T00:08:36Z) - A pattern recognition approach for distinguishing between prose and
poetry [0.8971132850029492]
本稿では,音韻特性とリズム特性のみに基づく詩文と散文を区別する自動手法を提案する。
抽出した特徴集合を用いて検討されたテキストの分類を行った結果,ニューラルネットワークを用いて得られた0.78の精度が得られた。
論文 参考訳(メタデータ) (2021-07-18T18:44:17Z) - Tortured phrases: A dubious writing style emerging in science. Evidence
of critical issues affecting established journals [69.76097138157816]
確率的テキストジェネレータは10年以上にわたって偽の科学論文の作成に使われてきた。
複雑なAIを利用した生成技術は、人間のものと区別できないテキストを生成する。
一部のウェブサイトはテキストを無料で書き直し、拷問されたフレーズでいっぱいのgobbledegookを生成する。
論文 参考訳(メタデータ) (2021-07-12T20:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。