論文の概要: Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy?
- arxiv url: http://arxiv.org/abs/2311.06981v1
- Date: Sat, 7 Oct 2023 23:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 16:23:16.171110
- Title: Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy?
- Title(参考訳): 文学検索と学術著作におけるジェネレーティブAIの利用:ジパーディにおける科学談話の統合性は?
- Authors: Paul G. Schmidt and Amnon J. Meir
- Abstract要約: 我々は,学術界で現在進行中の議論を,主要な学術出版社によるニュース記事,編集,立場声明のレビューで報告する。
学術的な執筆を目的として,ChatGPTと類似のAIツールの潜在的に有用な機能と有意義な応用について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ever since the public release of ChatGPT in November 2022, serious concerns
have been raised about the impact and potentially dire consequences of the
increasingly widespread use of generative AI tools for purposes of scientific
writing and publishing. We document the ongoing discussion in the science
community with a review of news articles, editorials, and position statements
by major scientific publishers; discuss the potential pitfalls of using
generative AI tools such as ChatGPT as aids in scholarly writing; furnish
evidence for the proposition that AI-induced contamination of the scientific
literature is not only a threat, but already a reality; and call upon leaders
in our field to develop policies and guidelines to stem the spread of such
contamination. Closing on a positive note, we provide a brief overview of
potentially useful capabilities and sensible applications of ChatGPT and
similar AI tools for purposes of scholarly writing.
- Abstract(参考訳): 2022年11月にChatGPTが公開されて以来、科学的な執筆と出版のために生成AIツールが広く使われることの影響と潜在的に恐ろしい結果について深刻な懸念が持ち上がっている。
We document the ongoing discussion in the science community with a review of news articles, editorials, and position statements by major scientific publishers; discuss the potential pitfalls of using generative AI tools such as ChatGPT as aids in scholarly writing; furnish evidence for the proposition that AI-induced contamination of the scientific literature is not only a threat, but already a reality; and call upon leaders in our field to develop policies and guidelines to stem the spread of such contamination.
最後に、学術的な執筆のためにchatgptと類似のaiツールの潜在的に有用な機能と賢明な応用について簡単に概説する。
関連論文リスト
- Suspected Undeclared Use of Artificial Intelligence in the Academic Literature: An Analysis of the Academ-AI Dataset [0.0]
アカデミックAIは、学術文献における未宣言のAI使用の疑いのある事例を文書化している。
宣言されていないAIは、引用基準が高く、記事処理料金が高いジャーナルに現れるようだ。
論文 参考訳(メタデータ) (2024-11-20T21:29:36Z) - The Impact of AI on Academic Research and Publishing [0.6144680854063939]
ChatGPTのような生成人工知能(AI)技術は学術的な執筆や出版に大きな影響を与えている。
本稿では,AIの学界への統合に関する倫理的考察を考察し,この技術が学術的不正行為に利用される可能性に注目した。
この発見は、この技術が倫理的かつ生産的に使用されることを保証するために、出版者、編集者、レビュアー、著者の間でAI利用への協力的アプローチの必要性を強調している。
論文 参考訳(メタデータ) (2024-06-10T04:10:18Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - PaperCard for Reporting Machine Assistance in Academic Writing [48.33722012818687]
2022年11月にOpenAIが発表した質問応答システムChatGPTは,学術論文作成に活用可能な,さまざまな機能を実証した。
これは学術における著者概念に関する批判的な疑問を提起する。
我々は、人間の著者が記述プロセスにおけるAIの使用を透過的に宣言するための文書である"PaperCard"というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T14:28:04Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - ChatGPT and a New Academic Reality: Artificial Intelligence-Written
Research Papers and the Ethics of the Large Language Models in Scholarly
Publishing [6.109522330180625]
ChatGPTは、テキストベースのユーザ要求を満たすために自然言語処理を使用する生成事前学習トランスフォーマーである。
GPT-3のような大規模言語モデルの出現に伴う潜在的な倫理的問題について論じる。
論文 参考訳(メタデータ) (2023-03-21T14:35:07Z) - Will ChatGPT get you caught? Rethinking of Plagiarism Detection [0.0]
人工知能(AI)技術の台頭と教育への影響は近年懸念が高まっている。
チャットボット、特にChatGPTを使った学術エッセイの生成は、学者の間で恐怖を呼び起こした。
この研究は、最も人気のあるAIチャットボットであるChatGPTが生み出すコンテンツの独創性を探求することを目的としている。
論文 参考訳(メタデータ) (2023-02-08T20:59:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。