論文の概要: Artificial Intelligence versus Maya Angelou: Experimental evidence that
people cannot differentiate AI-generated from human-written poetry
- arxiv url: http://arxiv.org/abs/2005.09980v2
- Date: Tue, 8 Sep 2020 19:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 04:38:09.832590
- Title: Artificial Intelligence versus Maya Angelou: Experimental evidence that
people cannot differentiate AI-generated from human-written poetry
- Title(参考訳): 人工知能対マヤ・アンジェロウ:AI生成と人間の詩を区別できない実験的証拠
- Authors: Nils K\"obis, Luca Mossink
- Abstract要約: 自然言語生成アルゴリズム(NLG)は、多くの注目を集め、議論を呼んだ。
一つの理由は、アルゴリズムが様々な領域にまたがって人間のようなテキストを生成する能力を持っているからである。
我々は,現在最先端の自然言語生成アルゴリズムであるGPT-2に対する行動反応を評価する2つの実験を行った。
これらの結果が人間に似たテキストを生成するためのNLGアルゴリズムの性能にどう影響するかを議論し、そのような学習アルゴリズムを人力実験環境で研究する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The release of openly available, robust natural language generation
algorithms (NLG) has spurred much public attention and debate. One reason lies
in the algorithms' purported ability to generate human-like text across various
domains. Empirical evidence using incentivized tasks to assess whether people
(a) can distinguish and (b) prefer algorithm-generated versus human-written
text is lacking. We conducted two experiments assessing behavioral reactions to
the state-of-the-art Natural Language Generation algorithm GPT-2 (Ntotal =
830). Using the identical starting lines of human poems, GPT-2 produced samples
of poems. From these samples, either a random poem was chosen
(Human-out-of-the-loop) or the best one was selected (Human-in-the-loop) and in
turn matched with a human-written poem. In a new incentivized version of the
Turing Test, participants failed to reliably detect the
algorithmically-generated poems in the Human-in-the-loop treatment, yet
succeeded in the Human-out-of-the-loop treatment. Further, people reveal a
slight aversion to algorithm-generated poetry, independent on whether
participants were informed about the algorithmic origin of the poem
(Transparency) or not (Opacity). We discuss what these results convey about the
performance of NLG algorithms to produce human-like text and propose
methodologies to study such learning algorithms in human-agent experimental
settings.
- Abstract(参考訳): オープンソースで堅牢な自然言語生成アルゴリズム(NLG)のリリースは、多くの注目を集め、議論を呼んだ。
一つの理由は、アルゴリズムが様々な領域にまたがって人間のようなテキストを生成する能力を持っているからである。
インセンティブ付きタスクを用いた人格評価の実証的証拠
a)を区別し、区別できる
(b)人間が書いたテキストよりもアルゴリズムが好まれる。
最新の自然言語生成アルゴリズムgpt-2 (ntotal = 830) に対する行動反応を2つの実験で評価した。
GPT-2は人間の詩の開始ラインを同一に使用し、詩のサンプルを作成した。
これらのサンプルから、ランダムな詩(Human-out-of-loop)が選ばれたか、最も良い詩(Human-in-the-loop)が選ばれた。
チューリングテストの新たなインセンティブ版では、被験者はループ内処理においてアルゴリズムによって生成された詩を確実に検出できなかったが、ループ内処理に成功している。
さらに、参加者が詩のアルゴリズム的起源(透明性)について知らされたかどうか(オパシティ)によらず、アルゴリズムが生成した詩に対する若干の嫌悪が露呈する。
これらの結果が人間に似たテキストを生成するためのNLGアルゴリズムの性能にどう影響するかを議論し、そのような学習アルゴリズムを人力実験環境で研究する手法を提案する。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Sentiment analysis and random forest to classify LLM versus human source applied to Scientific Texts [0.0]
自動テキスト生成エンジンや人間からのテキストを分類する新しい手法を提案する。
4つの異なる感情レキシコンを使用して、生成された多くの新機能を機械学習ランダムな森林方法論に供給し、そのようなモデルをトレーニングした。
結果は、人間がテキストのソースであるはずの環境において、これが詐欺を検知するための有望な研究ラインであることに非常に説得力があるように思える。
論文 参考訳(メタデータ) (2024-04-05T16:14:36Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Evaluating the Efficacy of Hybrid Deep Learning Models in Distinguishing
AI-Generated Text [0.0]
私の研究は、AI生成テキストと人間の文章を正確に区別するために、最先端のハイブリッドディープラーニングモデルを使用することを調査します。
さまざまなソースからAIと人文からなる慎重に選択されたデータセットを利用し、それぞれに指示をタグ付けして、堅牢な方法論を適用しました。
論文 参考訳(メタデータ) (2023-11-27T06:26:53Z) - Learning interactions to boost human creativity with bandits and GPT-4 [10.817205577415434]
我々は、人間の創造性、すなわち意味的特徴生成の限界を示す心理的タスクを採用する。
人間と言語AI(GPT-4)を用いた実験では、参加者がアルゴリズムによって生成されたヒントを要求できる変種に対して、標準タスクにおける振る舞いを対比する。
人間とAIはヒントからも同様の利点を示しており、驚くほど、AIの反応から学ぶバンディットは、人間の行動から学ぶのと同じプロンプト戦略を好む。
論文 参考訳(メタデータ) (2023-11-16T16:53:17Z) - DEMASQ: Unmasking the ChatGPT Wordsmith [63.8746084667206]
そこで本研究では,ChatGPT生成内容を正確に識別する効果的なChatGPT検出器DEMASQを提案する。
提案手法は, 人為的, 機械的, 人為的, 人為的, 機械的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人
論文 参考訳(メタデータ) (2023-11-08T21:13:05Z) - Towards Automatic Boundary Detection for Human-AI Collaborative Hybrid
Essay in Education [10.606131520965604]
本研究では,滅多に調査されていない現実的な環境下でのAIコンテンツ検出について検討する。
まず,人書きコンテンツとAI生成コンテンツ間の遷移点の同定として,検出タスクを定式化した。
次に、エンコーダトレーニングプロセス中にAI生成コンテンツと人書きコンテンツとを分離する2段階のアプローチを提案した。
論文 参考訳(メタデータ) (2023-07-23T08:47:51Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - BACON: Deep-Learning Powered AI for Poetry Generation with Author
Linguistic Style Transfer [91.3755431537592]
本稿では,BACONについて述べる。BACONは,著者の言語スタイルを伝達する自動詩生成器のプロトタイプである。
有限状態機械、確率モデル、人工ニューラルネットワーク、深層学習の概念と技法を組み合わせて、任意の著者のスタイルで豊かな美的品質でオリジナルの詩を書く。
論文 参考訳(メタデータ) (2021-12-14T00:08:36Z) - A pattern recognition approach for distinguishing between prose and
poetry [0.8971132850029492]
本稿では,音韻特性とリズム特性のみに基づく詩文と散文を区別する自動手法を提案する。
抽出した特徴集合を用いて検討されたテキストの分類を行った結果,ニューラルネットワークを用いて得られた0.78の精度が得られた。
論文 参考訳(メタデータ) (2021-07-18T18:44:17Z) - Tortured phrases: A dubious writing style emerging in science. Evidence
of critical issues affecting established journals [69.76097138157816]
確率的テキストジェネレータは10年以上にわたって偽の科学論文の作成に使われてきた。
複雑なAIを利用した生成技術は、人間のものと区別できないテキストを生成する。
一部のウェブサイトはテキストを無料で書き直し、拷問されたフレーズでいっぱいのgobbledegookを生成する。
論文 参考訳(メタデータ) (2021-07-12T20:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。