論文の概要: Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy?
- arxiv url: http://arxiv.org/abs/2311.06981v1
- Date: Sat, 7 Oct 2023 23:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 16:23:16.171110
- Title: Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy?
- Title(参考訳): 文学検索と学術著作におけるジェネレーティブAIの利用:ジパーディにおける科学談話の統合性は?
- Authors: Paul G. Schmidt and Amnon J. Meir
- Abstract要約: 我々は,学術界で現在進行中の議論を,主要な学術出版社によるニュース記事,編集,立場声明のレビューで報告する。
学術的な執筆を目的として,ChatGPTと類似のAIツールの潜在的に有用な機能と有意義な応用について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ever since the public release of ChatGPT in November 2022, serious concerns
have been raised about the impact and potentially dire consequences of the
increasingly widespread use of generative AI tools for purposes of scientific
writing and publishing. We document the ongoing discussion in the science
community with a review of news articles, editorials, and position statements
by major scientific publishers; discuss the potential pitfalls of using
generative AI tools such as ChatGPT as aids in scholarly writing; furnish
evidence for the proposition that AI-induced contamination of the scientific
literature is not only a threat, but already a reality; and call upon leaders
in our field to develop policies and guidelines to stem the spread of such
contamination. Closing on a positive note, we provide a brief overview of
potentially useful capabilities and sensible applications of ChatGPT and
similar AI tools for purposes of scholarly writing.
- Abstract(参考訳): 2022年11月にChatGPTが公開されて以来、科学的な執筆と出版のために生成AIツールが広く使われることの影響と潜在的に恐ろしい結果について深刻な懸念が持ち上がっている。
We document the ongoing discussion in the science community with a review of news articles, editorials, and position statements by major scientific publishers; discuss the potential pitfalls of using generative AI tools such as ChatGPT as aids in scholarly writing; furnish evidence for the proposition that AI-induced contamination of the scientific literature is not only a threat, but already a reality; and call upon leaders in our field to develop policies and guidelines to stem the spread of such contamination.
最後に、学術的な執筆のためにchatgptと類似のaiツールの潜在的に有用な機能と賢明な応用について簡単に概説する。
関連論文リスト
- Near to Mid-term Risks and Opportunities of Open Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのGenerative AIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Perceptions and Detection of AI Use in Manuscript Preparation for
Academic Journals [1.881901067333374]
大規模言語モデル(LLM)は、AIが学術的な文章にどのように影響するかを興奮と心配の両方を生み出している。
学術出版物の著者は、原稿の改訂に使用するAIツールを自発的に開示するかもしれない。
ジャーナルやカンファレンスは、開示を義務付けるか、あるいは検出サービスを使用するようにします。
論文 参考訳(メタデータ) (2023-11-19T06:04:46Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - PaperCard for Reporting Machine Assistance in Academic Writing [48.33722012818687]
2022年11月にOpenAIが発表した質問応答システムChatGPTは,学術論文作成に活用可能な,さまざまな機能を実証した。
これは学術における著者概念に関する批判的な疑問を提起する。
我々は、人間の著者が記述プロセスにおけるAIの使用を透過的に宣言するための文書である"PaperCard"というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T14:28:04Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - ChatGPT and a New Academic Reality: Artificial Intelligence-Written
Research Papers and the Ethics of the Large Language Models in Scholarly
Publishing [6.109522330180625]
ChatGPTは、テキストベースのユーザ要求を満たすために自然言語処理を使用する生成事前学習トランスフォーマーである。
GPT-3のような大規模言語モデルの出現に伴う潜在的な倫理的問題について論じる。
論文 参考訳(メタデータ) (2023-03-21T14:35:07Z) - Will ChatGPT get you caught? Rethinking of Plagiarism Detection [0.0]
人工知能(AI)技術の台頭と教育への影響は近年懸念が高まっている。
チャットボット、特にChatGPTを使った学術エッセイの生成は、学者の間で恐怖を呼び起こした。
この研究は、最も人気のあるAIチャットボットであるChatGPTが生み出すコンテンツの独創性を探求することを目的としている。
論文 参考訳(メタデータ) (2023-02-08T20:59:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。