論文の概要: Suspected Undeclared Use of Artificial Intelligence in the Academic Literature: An Analysis of the Academ-AI Dataset
- arxiv url: http://arxiv.org/abs/2411.15218v1
- Date: Wed, 20 Nov 2024 21:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:24:24.667945
- Title: Suspected Undeclared Use of Artificial Intelligence in the Academic Literature: An Analysis of the Academ-AI Dataset
- Title(参考訳): 学術文献における人工知能の未定使用に関する考察:学術AIデータセットの分析
- Authors: Alex Glynn,
- Abstract要約: アカデミックAIは、学術文献における未宣言のAI使用の疑いのある事例を文書化している。
宣言されていないAIは、引用基準が高く、記事処理料金が高いジャーナルに現れるようだ。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Since generative artificial intelligence (AI) tools such as OpenAI's ChatGPT became widely available, researchers have used them in the writing process. The consensus of the academic publishing community is that such usage must be declared in the published article. Academ-AI documents examples of suspected undeclared AI usage in the academic literature, discernible primarily due to the appearance in research papers of idiosyncratic verbiage characteristic of large language model (LLM)-based chatbots. This analysis of the first 500 examples collected reveals that the problem is widespread, penetrating the journals and conference proceedings of highly respected publishers. Undeclared AI seems to appear in journals with higher citation metrics and higher article processing charges (APCs), precisely those outlets that should theoretically have the resources and expertise to avoid such oversights. An extremely small minority of cases are corrected post publication, and the corrections are often insufficient to rectify the problem. The 500 examples analyzed here likely represent a small fraction of the undeclared AI present in the academic literature, much of which may be undetectable. Publishers must enforce their policies against undeclared AI usage in cases that are detectable; this is the best defense currently available to the academic publishing community against the proliferation of undisclosed AI.
- Abstract(参考訳): OpenAIのChatGPTのような生成人工知能(AI)ツールが広く利用できるようになったため、研究者はそれらを執筆プロセスで使用してきた。
学術出版コミュニティの合意は、そのような使用法は出版記事で宣言しなければならないことである。
Academ-AIは学術文献におけるAI使用の疑いのある事例を文書化しており、これは主に、大型言語モデル(LLM)ベースのチャットボットの慣用的言語特性の研究論文に現れているためである。
最初の500件の事例を分析したところ、この問題は広く広まり、高度に尊敬された出版社の雑誌や会議の手続きに浸透していることが明らかとなった。
宣言されていないAIは、より高い引用基準とより高い記事処理料金(APC)を持つジャーナルに現れているようだ。
極めて少数の症例が出版後に修正され、その修正が問題を修正するのに不十分であることが多い。
ここで分析された500の例は、学術文献に存在する未宣言のAIのごく一部であり、そのほとんどは検出不能である可能性がある。
出版者は、検出可能な場合に、宣言されていないAIの使用に対するポリシーを強制しなければならない。
関連論文リスト
- Consent in Crisis: The Rapid Decline of the AI Data Commons [74.68176012363253]
汎用人工知能(AI)システムは、大量の公開Webデータに基づいて構築されている。
我々は,AIトレーニングコーパスに基づくWebドメインに対する同意プロトコルの大規模かつ長期的監査を行う。
論文 参考訳(メタデータ) (2024-07-20T16:50:18Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - Perceptions and Detection of AI Use in Manuscript Preparation for
Academic Journals [1.881901067333374]
大規模言語モデル(LLM)は、AIが学術的な文章にどのように影響するかを興奮と心配の両方を生み出している。
学術出版物の著者は、原稿の改訂に使用するAIツールを自発的に開示するかもしれない。
ジャーナルやカンファレンスは、開示を義務付けるか、あるいは検出サービスを使用するようにします。
論文 参考訳(メタデータ) (2023-11-19T06:04:46Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy? [0.0]
我々は,学術界で現在進行中の議論を,主要な学術出版社によるニュース記事,編集,立場声明のレビューで報告する。
学術的な執筆を目的として,ChatGPTと類似のAIツールの潜在的に有用な機能と有意義な応用について概説する。
論文 参考訳(メタデータ) (2023-10-07T23:31:24Z) - PaperCard for Reporting Machine Assistance in Academic Writing [48.33722012818687]
2022年11月にOpenAIが発表した質問応答システムChatGPTは,学術論文作成に活用可能な,さまざまな機能を実証した。
これは学術における著者概念に関する批判的な疑問を提起する。
我々は、人間の著者が記述プロセスにおけるAIの使用を透過的に宣言するための文書である"PaperCard"というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T14:28:04Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Pseudo AI Bias [0.0]
Pseudo Artificial Intelligence bias (PAIB) は文学において広く普及している。
誤解、疑似機械的偏見、アルゴリズム予測の過剰な発見によるPAIBは社会的に有害である。
論文 参考訳(メタデータ) (2022-10-14T22:53:18Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。