論文の概要: Tenure Under Pressure: Simulating the Disruptive Effects of AI on Academic Publishing
- arxiv url: http://arxiv.org/abs/2509.16925v1
- Date: Sun, 21 Sep 2025 05:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:53:07.121161
- Title: Tenure Under Pressure: Simulating the Disruptive Effects of AI on Academic Publishing
- Title(参考訳): プレッシャー下の緊張 - 学術出版におけるAIの破壊的影響をシミュレートする
- Authors: Shan Jiang,
- Abstract要約: 本稿では,AIによる応募の急増が机の拒絶率,レビューサイクル,大学出版ポートフォリオにどのように影響するかをシミュレーションモデルを用いて検討する。
以上の結果から,早期採用者は当初は恩恵を受けるが,負荷の増加とともに全体の受入れ率は急激に低下し,有期追跡学部は不均等に否定的な結果がみられた。
- 参考スコア(独自算出の注目度): 2.4190437795056208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (AI) has begun to reshape academic publishing by enabling the rapid production of submission-ready manuscripts. While such tools promise to enhance productivity, they also raise concerns about overwhelming journal systems that have fixed acceptance capacities. This paper uses simulation modeling to investigate how AI-driven surges in submissions may affect desk rejection rates, review cycles, and faculty publication portfolios, with a focus on business school journals and tenure processes. Three scenarios are analyzed: a baseline model, an Early Adopter model where a subset of faculty boosts productivity, and an AI Abuse model where submissions rise exponentially. Results indicate that early adopters initially benefit, but overall acceptance rates fall sharply as load increases, with tenure-track faculty facing disproportionately negative outcomes. The study contributes by demonstrating the structural vulnerabilities of the current publication system and highlights the need for institutional reform in personnel evaluation and research dissemination practices.
- Abstract(参考訳): 生成人工知能(AI)は、提出可能な原稿を迅速に作成できるようにすることで学術出版を再構築し始めている。
このようなツールは生産性を高めることを約束する一方で、受容能力が固定された圧倒的なジャーナルシステムに対する懸念も高めている。
本稿では,AIによる応募の急増が机の拒絶率,レビューサイクル,大学出版のポートフォリオにどのように影響するかをシミュレーションモデルを用いて検討する。
ベースラインモデル、教員のサブセットが生産性を向上するアーリーアダプターモデル、応募が指数関数的に増加するAI Abuseモデル、の3つのシナリオが分析される。
以上の結果から,早期採用者は当初は恩恵を受けるが,負荷の増加とともに全体の受入れ率は急激に低下し,有期追跡学部は不均等に否定的な結果がみられた。
この研究は、現在の出版システムの構造的脆弱性を実証し、人材評価と研究普及の実践における制度改革の必要性を強調している。
関連論文リスト
- PaperBanana: Automating Academic Illustration for AI Scientists [58.120067704652314]
PaperBananaは、出版可能な学術イラストの自動生成のためのエージェントフレームワークである。
最先端のVLMと画像生成モデルによって駆動されるPaperBananaは、参照を検索し、コンテンツとスタイルを計画し、画像をレンダリングし、自己批判を通じて反復的に洗練する特別エージェントを編成する。
論文 参考訳(メタデータ) (2026-01-30T18:33:37Z) - EmboCoach-Bench: Benchmarking AI Agents on Developing Embodied Robots [68.29056647487519]
Embodied AIは、高忠実度シミュレーションと大規模データ収集によって実現されている。
しかし、このスケーリング能力は、労働集約的な手作業の監視に依存しているため、いまだにボトルネックになっている。
実装ポリシーを自律的に構築するための LLM エージェントの能力を評価するベンチマークである textscEmboCoach-Bench を紹介する。
論文 参考訳(メタデータ) (2026-01-29T11:33:49Z) - Reporting LLM Prompting in Automated Software Engineering: A Guideline Based on Current Practices and Expectations [39.62249759297524]
大規模言語モデルは、ソフトウェアエンジニアリングタスクの自動化にますます使われています。
これらのモデルは自然言語のプロンプトを通じて導かれるため、システムパフォーマンスと振る舞いにおいて、迅速なエンジニアリングが重要な要素となる。
SE研究での役割が増大しているにもかかわらず、プロンプトに関連する決定は、体系的または透明な方法で文書化されることは滅多にない。
論文 参考訳(メタデータ) (2026-01-05T10:01:20Z) - Designing AI-Resilient Assessments Using Interconnected Problems: A Theoretically Grounded and Empirically Validated Framework [0.0]
生成AIの急速な採用により、コンピューティング教育における従来のモジュラーアセスメントが損なわれている。
本稿では,AI-レジリエントアセスメントを設計するための理論的基盤となる枠組みを提案する。
論文 参考訳(メタデータ) (2025-12-11T15:53:19Z) - ARISE: Agentic Rubric-Guided Iterative Survey Engine for Automated Scholarly Paper Generation [7.437989615069771]
ARISEは、学術調査論文の自動生成と継続的改善のためのエージェント誘導反復調査エンジンである。
ARISEは、特定の大規模言語モデルエージェントで構成されたモジュラーアーキテクチャを採用し、それぞれがトピック拡張、引用キュレーション、文学要約、原稿の草稿作成、ピアレビューに基づく評価などの学術的な役割を反映している。
ARISEは、包括性、正確性、フォーマッティング、総合的な学術的厳密さの指標にまたがる基準的手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-11-21T14:14:35Z) - Does GenAI Rewrite How We Write? An Empirical Study on Two-Million Preprints [15.070885964897734]
生成型大規模言語モデル(LLM)は、原稿の書き方を変えることによって、さらなる破壊をもたらす可能性がある。
本稿は、2016年から2025年(115ヶ月)にかけての2100万件以上のプレプリントを4つの主要なリポジトリで大規模に分析することで、このギャップを解消する。
以上の結果から,LSMは提出サイクルと修正サイクルを加速し,言語的複雑性が緩やかに増加し,AI関連トピックが不均等に拡大したことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-18T01:37:40Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Generative Knowledge Production Pipeline Driven by Academic Influencers [0.0]
本研究では,53のアカデミックインフルエンサー・ビデオを用いて,新しい,構造化された,実装可能なパイプラインを同定する。
発見は、出版を自動化し、知識生産への参加を民主化する、生成的AIの可能性を強調している。
本研究は,共同インテリジェンス適応のための生成出版生産パイプラインと政策フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T15:07:01Z) - Imitate, Explore, and Self-Improve: A Reproduction Report on Slow-thinking Reasoning Systems [92.89673285398521]
o1のような推論システムは、複雑な推論タスクを解く際、顕著な能力を示した。
推論モデルをトレーニングするために、模倣、探索、自己改善のフレームワークを導入します。
提案手法は,産業レベルの推論システムと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2024-12-12T16:20:36Z) - Position: Embracing Negative Results in Machine Learning [0.7499722271664147]
予測パフォーマンスだけでは出版価値の指標にはならない、と私たちは主張する。
本稿では、ネガティブな結果を公開する利点を示し、コミュニティが彼らの出版が正規化されるパラダイムへと進むための具体的な手段を提供する。
論文 参考訳(メタデータ) (2024-06-06T11:51:12Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Streamlining the Selection Phase of Systematic Literature Reviews (SLRs) Using AI-Enabled GPT-4 Assistant API [0.0]
本研究は,システム文献レビューにおいて,記事選択フェーズの効率を合理化するための,先駆的なAIベースのツールを紹介する。
このツールは、幅広い学術分野にわたる記事選択プロセスの均質化に成功している。
論文 参考訳(メタデータ) (2024-01-14T11:16:16Z) - You Are the Best Reviewer of Your Own Papers: The Isotonic Mechanism [1.7741566627076264]
ノイズレビュースコアの精度を高めるためにイソトニックメカニズムを導入する。
複数の論文を提出した著者は、評価された品質の順に論文をランク付けする必要がある。
調整されたスコアは 生のスコアよりも正確です
論文 参考訳(メタデータ) (2022-06-14T14:35:53Z) - Generating Summaries for Scientific Paper Review [29.12631698162247]
機械学習とNLPにおけるトップの会場への応募の増加は、レビュアーに過剰な負担を課す問題を引き起こしている。
レビュープロセスを支援する自動システムは、問題を改善するための解決策になり得る。
本稿では,学術論文の自動レビュー要約生成について検討する。
論文 参考訳(メタデータ) (2021-09-28T21:43:53Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。