論文の概要: What has ChatGPT read? The origins of archaeological citations used by a
generative artificial intelligence application
- arxiv url: http://arxiv.org/abs/2308.03301v1
- Date: Mon, 7 Aug 2023 05:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:13:00.687728
- Title: What has ChatGPT read? The origins of archaeological citations used by a
generative artificial intelligence application
- Title(参考訳): ChatGPTは何を読んだか?
生成人工知能応用による考古学的引用の起源
- Authors: Dirk HR Spennemann
- Abstract要約: 本稿は,ChatGPTの訓練段階に含まれると思われる考古学文献を検証した。
ChatGPTは、一見意味のある参照を提供するが、大きなパーセンテージは虚偽であることが証明された。
ChatGPTが提供するすべての参照が本物であることが判明したことも、Wikipediaのページに引用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The public release of ChatGPT has resulted in considerable publicity and has
led to wide-spread discussion of the usefulness and capabilities of generative
AI language models. Its ability to extract and summarise data from textual
sources and present them as human-like contextual responses makes it an
eminently suitable tool to answer questions users might ask. This paper tested
what archaeological literature appears to have been included in ChatGPT's
training phase. While ChatGPT offered seemingly pertinent references, a large
percentage proved to be fictitious. Using cloze analysis to make inferences on
the sources 'memorised' by a generative AI model, this paper was unable to
prove that ChatGPT had access to the full texts of the genuine references. It
can be shown that all references provided by ChatGPT that were found to be
genuine have also been cited on Wikipedia pages. This strongly indicates that
the source base for at least some of the data is found in those pages. The
implications of this in relation to data quality are discussed.
- Abstract(参考訳): ChatGPTのパブリックリリースは、かなり公開され、生成型AI言語モデルの有用性と能力について広く議論されている。
テキストソースからデータを抽出して要約し、それを人間のようなコンテキスト応答として提示する能力は、ユーザが質問するであろう質問に答えるための、極めて適したツールである。
本稿は,ChatGPTの訓練段階に含まれると思われる考古学文献を検証した。
ChatGPTが関連する参照を提供する一方で、大きな割合は虚偽であることが判明した。
生成AIモデルにより「記憶された」ソースのクローゼ分析を用いて,ChatGPTが真の参照の全文にアクセスできたことを証明できなかった。
ChatGPTが提供するすべての参照が本物であることが判明したことも、Wikipediaのページに引用されている。
これは、少なくとも一部のデータのソースがこれらのページにあることを強く示している。
データ品質との関連性について考察する。
関連論文リスト
- Chatbot-supported Thesis Writing: An Autoethnographic Report [0.0]
チャットGPTは、学士論文や学生研究論文など、学習者がテキストを生成する必要のあるフォーマットに適用される。
ChatGPTは、論文を書く上で有益なツールとして評価される。
しかし、決定的な論文を書くには、学習者の意味のある関与が必要である。
論文 参考訳(メタデータ) (2023-10-14T09:09:26Z) - ChatGPT Hallucinates when Attributing Answers [27.63520311803786]
我々は、異なるプロンプトが答えや証拠にどのように影響するかを調査する。
約半数の症例において,ChatGPTが正解あるいは部分的に正解であることがわかった。
しかし、提案されている基準は14%しか存在しない。
論文 参考訳(メタデータ) (2023-09-17T23:49:12Z) - Do androids dream of fictional references? A bibliographic dialogue with
ChatGPT3.5 [0.0]
この記事では、ChatGPT3.5ツールによって生成された参照に焦点を当てます。
我々は6つの異なるテーマを探索し、そのモデルが生成した参照のサンプルをフランス語と英語で分析した。
論文 参考訳(メタデータ) (2023-09-04T08:11:59Z) - Is ChatGPT Involved in Texts? Measure the Polish Ratio to Detect
ChatGPT-Generated Text [48.36706154871577]
我々はHPPT(ChatGPT-polished academic abstracts)と呼ばれる新しいデータセットを紹介する。
純粋なChatGPT生成テキストの代わりに、人書きとChatGPTポリケートされた抽象文のペアを構成することで、既存のコーパスから分岐する。
また,ChatGPTによる修正の度合いを,オリジナルの人文テキストと比較した革新的な尺度であるPolish Ratio法を提案する。
論文 参考訳(メタデータ) (2023-07-21T06:38:37Z) - CHEAT: A Large-scale Dataset for Detecting ChatGPT-writtEn AbsTracts [10.034193809833372]
悪意のあるユーザーはChatGPTを通じてダミーな学術コンテンツを合成できる。
本稿では,検出アルゴリズムの開発を支援するために,大規模なCHatGPT-writtEn AbsTractデータセット(CHEAT)を提案する。
論文 参考訳(メタデータ) (2023-04-24T11:19:33Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Is ChatGPT A Good Keyphrase Generator? A Preliminary Study [51.863368917344864]
ChatGPTは最近、計算言語学コミュニティから大きな注目を集めている。
我々は、キーフレーズ生成プロンプト、キーフレーズ生成の多様性、長い文書理解など、様々な面でその性能を評価する。
その結果、ChatGPTは6つのプロンプトすべてに対して非常によく機能し、データセット間で小さなパフォーマンス差が観測されていることがわかった。
論文 参考訳(メタデータ) (2023-03-23T02:50:38Z) - ChatGPT as the Transportation Equity Information Source for Scientific
Writing [0.0]
本研究では,ChatGPTが生成する交通情報の内容と有用性について検討した。
Web of Science(WoS)リポジトリから取得した152の論文を活用している。
その結果,ChatGPTと人文抽象の類似性が弱いことが示唆された。
論文 参考訳(メタデータ) (2023-03-10T16:21:54Z) - Is ChatGPT a Good NLG Evaluator? A Preliminary Study [121.77986688862302]
NLG測定値として信頼性を示すため,ChatGPTのメタ評価を行った。
実験の結果,ChatGPTは従来の自動測定値と比較して,人間の判断と最先端あるいは競合的な相関を達成できた。
我々の予備研究は、汎用的な信頼性のあるNLGメトリックの出現を促すことを願っている。
論文 参考訳(メタデータ) (2023-03-07T16:57:20Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。