論文の概要: Academic journals' AI policies fail to curb the surge in AI-assisted academic writing
- arxiv url: http://arxiv.org/abs/2512.06705v1
- Date: Sun, 07 Dec 2025 07:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.479117
- Title: Academic journals' AI policies fail to curb the surge in AI-assisted academic writing
- Title(参考訳): 学術誌のAIポリシーは、AIを活用した学術論文の急増を抑制するには失敗
- Authors: Yongyuan He, Yi Bu,
- Abstract要約: 我々は5,114のジャーナルと520万以上の論文を分析し、AI利用ガイドラインの現実的な影響を評価する。
論文の70%がAIポリシーを採用しているにもかかわらず、研究者のAI記述ツールの使用は、分野によって劇的に増加していることを示す。
我々の発見は、現在のポリシーが透明性を促進したり、AIの採用を抑えられなかったことを示唆している。
- 参考スコア(独自算出の注目度): 0.6800474505694646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid integration of generative AI into academic writing has prompted widespread policy responses from journals and publishers. However, the effectiveness of these policies remains unclear. Here, we analyze 5,114 journals and over 5.2 million papers to evaluate the real-world impact of AI usage guidelines. We show that despite 70% of journals adopting AI policies (primarily requiring disclosure), researchers' use of AI writing tools has increased dramatically across disciplines, with no significant difference between journals with or without policies. Non-English-speaking countries, physical sciences, and high-OA journals exhibit the highest growth rates. Crucially, full-text analysis on 164k scientific publications reveals a striking transparency gap: Of the 75k papers published since 2023, only 76 (0.1%) explicitly disclosed AI use. Our findings suggest that current policies have largely failed to promote transparency or restrain AI adoption. We urge a re-evaluation of ethical frameworks to foster responsible AI integration in science.
- Abstract(参考訳): 生成的AIを学術的な文章に迅速に統合することで、雑誌や出版社から幅広い政策反応がもたらされた。
しかし、これらの政策の有効性は未だ不明である。
ここでは5,114のジャーナルと520万以上の論文を分析し、AI利用ガイドラインの現実的な影響を評価する。
AIポリシーを採用するジャーナルの70%(主に開示を必要としている)にもかかわらず、研究者のAI記述ツールの使用は、規律全体にわたって劇的に増加しており、ポリシーを持つジャーナルと非ポリシーのジャーナルの間に有意な違いはない。
非英語圏、物理科学、高OA雑誌が最も高い成長率を示している。
重要なことに、164kの科学出版物に関する全文分析は、目覚ましい透明性のギャップを明らかにしている。2023年以降に出版された75kの論文のうち、AIの使用を明示的に公表しているのは76(0.1%)に過ぎない。
我々の発見は、現在のポリシーが透明性を促進したり、AIの採用を抑えられなかったことを示唆している。
我々は、科学における責任あるAI統合を促進するための倫理的枠組みの再評価を奨励する。
関連論文リスト
- AI use in American newspapers is widespread, uneven, and rarely disclosed [27.418820851102925]
我々は、2025年夏に発行された150Kアメリカの新聞のオンライン版から186K記事のデータセットを監査する。
最先端のAI検出器であるPangramを使用して、新たに公開された記事の約9%が、部分的にまたは完全なAI生成であることがわかった。
ワシントン・ポスト、ニューヨーク・タイムズ、ウォール・ストリート・ジャーナルの45万件の意見も分析し、ニュース記事よりもAI生成コンテンツを含む可能性が6.4倍高いことを発見した。
論文 参考訳(メタデータ) (2025-10-21T16:22:07Z) - Advancing Science- and Evidence-based AI Policy [163.43609502905707]
本稿では,AIの機会と課題に対処するために,エビデンスと政策の関係を最適化する方法の課題に取り組む。
i)AIのリスクとその効果的な緩和に関する研究、または(ii)これらのリスクに対処するための政策を提唱することで、この問題に対処する努力が増えている。
論文 参考訳(メタデータ) (2025-08-02T23:20:58Z) - AI labeling reduces the perceived accuracy of online content but has limited broader effects [0.0]
提案する公開ポリシーに関するニュース記事の明示的なAIラベル付けは,その認識精度を低下させることを示す。
AIラベリングはポリシーへの関心を減少させるが、ポリシーへの支持に影響せず、オンラインの誤情報に対する一般的な懸念も引き起こさない。
論文 参考訳(メタデータ) (2025-06-19T10:32:52Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Suspected Undeclared Use of Artificial Intelligence in the Academic Literature: An Analysis of the Academ-AI Dataset [0.0]
アカデミックAIは、学術文献における未宣言のAI使用の疑いのある事例を文書化している。
宣言されていないAIは、引用基準が高く、記事処理料金が高いジャーナルに現れるようだ。
論文 参考訳(メタデータ) (2024-11-20T21:29:36Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Artificial intelligence in social science: A study based on
bibliometrics analysis [0.0]
本稿では,過去10年間(2013-2022年)の社会科学におけるAI関連出版物の文献分析結果について述べる。
2008年から2022年までの85%という19,408件以上の論文が出版されており、この分野の研究は年々著しく増加している。
米国は、最も多く出版する国(20%)であり、次に中国(13%)である。
論文 参考訳(メタデータ) (2023-12-09T15:16:44Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Artificial Intelligence and Life in 2030: The One Hundred Year Study on
Artificial Intelligence [74.2630823914258]
このレポートは、AIが今後数年間に影響を及ぼす可能性のある、典型的な都市環境の8つのドメインを調査している。
それは、AIの現状を科学的かつ技術的に正確に描写する一般大衆に提供することを目的としている。
この報告書の費用は、ハーバード大学のBarbara Groszが議長を務めるAI100 Standing Committee(AI100スタンディング委員会)のパネルに提出された。
論文 参考訳(メタデータ) (2022-10-31T18:35:36Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。