論文の概要: All That Glitters is Not Novel: Plagiarism in AI Generated Research
- arxiv url: http://arxiv.org/abs/2502.16487v1
- Date: Sun, 23 Feb 2025 08:00:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:28.281363
- Title: All That Glitters is Not Novel: Plagiarism in AI Generated Research
- Title(参考訳): AI生成研究におけるプラジアリズム
- Authors: Tarun Gupta, Danish Pruthi,
- Abstract要約: 近年、自律的な研究エージェントが新たな研究アイデアを創出できると主張する論文がいくつかある。
このような研究資料のかなりの部分は、巧妙に盗用されている。
- 参考スコア(独自算出の注目度): 12.912805220488162
- License:
- Abstract: Automating scientific research is considered the final frontier of science. Recently, several papers claim autonomous research agents can generate novel research ideas. Amidst the prevailing optimism, we document a critical concern: a considerable fraction of such research documents are smartly plagiarized. Unlike past efforts where experts evaluate the novelty and feasibility of research ideas, we request $13$ experts to operate under a different situational logic: to identify similarities between LLM-generated research documents and existing work. Concerningly, the experts identify $24\%$ of the $50$ evaluated research documents to be either paraphrased (with one-to-one methodological mapping), or significantly borrowed from existing work. These reported instances are cross-verified by authors of the source papers. Problematically, these LLM-generated research documents do not acknowledge original sources, and bypass inbuilt plagiarism detectors. Lastly, through controlled experiments we show that automated plagiarism detectors are inadequate at catching deliberately plagiarized ideas from an LLM. We recommend a careful assessment of LLM-generated research, and discuss the implications of our findings on research and academic publishing.
- Abstract(参考訳): 科学研究の自動化は科学の最後のフロンティアと考えられている。
近年、自律的な研究エージェントが新たな研究アイデアを創出できると主張する論文がいくつかある。
広く普及している楽観主義の中で、我々は重大な懸念を文書化している。
専門家が研究アイデアの新規性と実現可能性を評価する過去の取り組みとは異なり、我々は13ドルの専門家に異なる状況論理の下での運用を依頼する。
専門家は、50ドルで評価された研究資料のうち24セントを(1対1の方法論マッピングで)パラフレーズにするか、あるいは既存の研究からかなり借用されていると特定している。
これらの報告例は、ソース論文の著者によって横断的に検証されている。
問題なのは、これらのLCMが生成した研究文書は原典を認めておらず、組み込まれた盗作検知器をバイパスしていることである。
最後に、制御された実験を通して、自動化された盗作検知器は、故意に盗作されたアイデアをLSMから捉えるのに不十分であることを示す。
我々は, LLMによる研究の慎重な評価を推奨し, 研究および学術出版における研究結果の影響について考察する。
関連論文リスト
- Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly Peer Review [66.73247554182376]
大規模言語モデル(LLM)がピアレビューに統合された。
未確認のLLMの採用は、ピアレビューシステムの完全性に重大なリスクをもたらす。
5%のレビューを操作すれば、論文の12%が上位30%のランキングでその地位を失う可能性がある。
論文 参考訳(メタデータ) (2024-12-02T16:55:03Z) - Chain of Ideas: Revolutionizing Research Via Novel Idea Development with LLM Agents [64.64280477958283]
科学文献の急激な増加は、研究者が最近の進歩と意義ある研究方向を見極めるのを困難にしている。
大規模言語モデル(LLM)の最近の発展は、新しい研究のアイデアを自動生成するための有望な道のりを示唆している。
本研究では, チェーン構造に関連文献を整理し, 研究領域の進展を効果的に反映する, LLMベースのエージェントであるChain-of-Ideas(CoI)エージェントを提案する。
論文 参考訳(メタデータ) (2024-10-17T03:26:37Z) - Is Your Paper Being Reviewed by an LLM? Investigating AI Text Detectability in Peer Review [8.606381080620789]
既存のAIテキスト検出アルゴリズムが人間の書いたピアレビューと最先端のLLMを区別する能力について検討する。
分析の結果,既存の手法では,多くの GPT-4o 書面レビューを偽陽性分類を発生させることなく識別できないことがわかった。
偽陽性分類の低レベルにおけるGPT-4o書評の同定において,既存の手法を超越した新たな検出手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T22:05:06Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Cracking Double-Blind Review: Authorship Attribution with Deep Learning [43.483063713471935]
本稿では、匿名の原稿を著者に属性付けるトランスフォーマーベースのニューラルネットワークアーキテクチャを提案する。
我々は、arXivで公開されているすべての研究論文を200万冊以上の原稿に活用する。
本手法は, 論文の最大73%を正解する, 前代未聞の著者帰属精度を実現する。
論文 参考訳(メタデータ) (2022-11-14T15:50:24Z) - Tortured phrases: A dubious writing style emerging in science. Evidence
of critical issues affecting established journals [69.76097138157816]
確率的テキストジェネレータは10年以上にわたって偽の科学論文の作成に使われてきた。
複雑なAIを利用した生成技術は、人間のものと区別できないテキストを生成する。
一部のウェブサイトはテキストを無料で書き直し、拷問されたフレーズでいっぱいのgobbledegookを生成する。
論文 参考訳(メタデータ) (2021-07-12T20:47:08Z) - Analyzing Non-Textual Content Elements to Detect Academic Plagiarism [0.8490310884703459]
論文では、学術文書における非テクスト内容の分析という、異なる概念を実装する盗作検出アプローチを提案する。
非テキストとテキストをベースとした検出手法を組み合わせる利点を示すために、論文では、引用に基づく、画像に基づく、数学に基づく、テキストベースの文書類似性の分析を統合する最初のプラジャリズム検出システムを記述する。
論文 参考訳(メタデータ) (2021-06-10T14:11:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。