論文の概要: The Turing Deception
- arxiv url: http://arxiv.org/abs/2212.06721v1
- Date: Fri, 9 Dec 2022 16:32:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 13:16:45.585670
- Title: The Turing Deception
- Title(参考訳): チューリングの誤認
- Authors: David Noever, Matt Ciolino
- Abstract要約: 本研究は従来のチューリングテストを再検討し、ChatGPTのような最近の大規模言語モデルと比較する。
アルゴリズムがチューリングの真の独創的な考えのヒントを表示するかどうかという問題は、現時点では未解決であり、潜在的に未解決である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research revisits the classic Turing test and compares recent large
language models such as ChatGPT for their abilities to reproduce human-level
comprehension and compelling text generation. Two task challenges --
summarization, and question answering -- prompt ChatGPT to produce original
content (98-99%) from a single text entry and also sequential questions
originally posed by Turing in 1950. The question of a machine fooling a human
judge recedes in this work relative to the question of "how would one prove
it?" The original contribution of the work presents a metric and simple
grammatical set for understanding the writing mechanics of chatbots in
evaluating their readability and statistical clarity, engagement, delivery, and
overall quality. While Turing's original prose scores at least 14% below the
machine-generated output, the question of whether an algorithm displays hints
of Turing's truly original thoughts (the "Lovelace 2.0" test) remains
unanswered and potentially unanswerable for now.
- Abstract(参考訳): 本研究では、従来のチューリングテストを再検討し、ChatGPTのような最近の大規模言語モデルと比較し、人間レベルの理解と魅力的なテキスト生成を再現する能力について述べる。
2つの課題 - 要約と質問応答 - はchatgptに対して、単一のテキストエントリからオリジナルコンテンツ(98-99%)を生成するように促す。
人間の裁判官を騙す機械の問題は、「どうやってそれを証明したのか?
オリジナルの貢献は、その可読性、統計的明瞭さ、エンゲージメント、デリバリ、全体的な品質を評価する上で、チャットボットの書き方を理解するためのメートル法と単純な文法セットである。
チューリングの原文のスコアはマシンが生成した出力より少なくとも14%低いが、アルゴリズムがチューリングの真に独創的な思考("lovelace 2.0"テスト)のヒントを示すかどうかという疑問は、今のところまだ解決されていない。
関連論文リスト
- Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Deep Learning Based Amharic Chatbot for FAQs in Universities [0.0]
本稿では,アムハラ語の質問(FAQ)に頻繁に答えるモデルを提案する。
提案プログラムでは, トークン化, 停止語除去, ステーミングを用いて, アムハラ語入力文の分析と分類を行う。
このモデルはFacebook Messengerに統合され、Herokuサーバに24時間のアクセシビリティとしてデプロイされた。
論文 参考訳(メタデータ) (2024-01-26T18:37:21Z) - Turing's Test, a Beautiful Thought Experiment [0.0]
チューリング試験とその価値に関する主張と疑問が復活した。
もしAIが量子物理学なら、現在までに数匹の"Schr"odinger's"猫が殺されただろう。
本稿では, チューリングの1950年版に関するいくつかのオープンな疑問に対して, 新たな考古学的根拠を含む, 豊富な証拠を提示する。
論文 参考訳(メタデータ) (2023-12-18T19:38:26Z) - HPE:Answering Complex Questions over Text by Hybrid Question Parsing and
Execution [92.69684305578957]
テキストQAにおける質問解析と実行の枠組みを提案する。
提案したフレームワークは、トップダウンの質問パースとして、ボトムアップの回答バックトラックとみなすことができる。
MuSiQue,2WikiQA,HotpotQA,およびNQに関する実験により,提案した解析およびハイブリッド実行フレームワークが,教師付き,少数ショット,ゼロショット設定における既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-12T22:37:06Z) - The Human-or-Machine Matter: Turing-Inspired Reflections on an Everyday
Issue [4.309879785418976]
マシンにインテリジェントなラベルを付けることができるのか、あるいは特定のコンテキストにおける人間の能力と一致すると言えるのか、という疑問を副次的に解決する。
「私は人間や機械と対話しているか」という、日常のやりとりの中で、一見単純な質問に最初に注意を向ける。
論文 参考訳(メタデータ) (2023-05-07T15:41:11Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Asking Questions the Human Way: Scalable Question-Answer Generation from
Text Corpus [23.676748207014903]
問合せ型質問生成(ACS-QG)を提案する。
ラベルなしテキストコーパスから高品質で多様な質問応答ペアを大規模に自動生成することを目的としている。
ウィキペディアで見つかった100万の文から、280万の質保証された質問応答ペアを生成することができる。
論文 参考訳(メタデータ) (2020-01-27T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。