論文の概要: Accepted with Minor Revisions: Value of AI-Assisted Scientific Writing
- arxiv url: http://arxiv.org/abs/2511.12529v1
- Date: Sun, 16 Nov 2025 09:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.591314
- Title: Accepted with Minor Revisions: Value of AI-Assisted Scientific Writing
- Title(参考訳): マイナーリビジョンを受諾:AIを活用した科学的執筆の価値
- Authors: Sanchaita Hazra, Doeun Lee, Bodhisattwa Prasad Majumder, Sachin Kumar,
- Abstract要約: 学術論文におけるドメインエキスパートを支援するための大規模言語モデルの可能性について検討する。
我々は、関連する専門知識を持つ参加者を著者とレビュアープールに分割する、仮説的な会議設定によるインセンティブ付きコントロールトライアルを設計する。
行動科学の手法にインスパイアされた我々の新しいインセンティブ構造は、著者に対して、査読された論文に対して、提供された要約を許容できる品質に編集することを奨励する。
- 参考スコア(独自算出の注目度): 16.303672551924553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models have seen expanding application across domains, yet their effectiveness as assistive tools for scientific writing -- an endeavor requiring precision, multimodal synthesis, and domain expertise -- remains insufficiently understood. We examine the potential of LLMs to support domain experts in scientific writing, with a focus on abstract composition. We design an incentivized randomized controlled trial with a hypothetical conference setup where participants with relevant expertise are split into an author and reviewer pool. Inspired by methods in behavioral science, our novel incentive structure encourages authors to edit the provided abstracts to an acceptable quality for a peer-reviewed submission. Our 2x2 between-subject design expands into two dimensions: the implicit source of the provided abstract and the disclosure of it. We find authors make most edits when editing human-written abstracts compared to AI-generated abstracts without source attribution, often guided by higher perceived readability in AI generation. Upon disclosure of source information, the volume of edits converges in both source treatments. Reviewer decisions remain unaffected by the source of the abstract, but bear a significant correlation with the number of edits made. Careful stylistic edits, especially in the case of AI-generated abstracts, in the presence of source information, improve the chance of acceptance. We find that AI-generated abstracts hold potential to reach comparable levels of acceptability to human-written ones with minimal revision, and that perceptions of AI authorship, rather than objective quality, drive much of the observed editing behavior. Our findings reverberate the significance of source disclosure in collaborative scientific writing.
- Abstract(参考訳): 大規模言語モデルは、ドメインにまたがるアプリケーションの拡大を見てきたが、科学的記述の補助ツールとしての有効性 – 正確性、マルチモーダル合成、ドメインの専門知識を必要とする – はまだ十分に理解されていない。
学術論文の分野の専門家を支援するLLMの可能性を,抽象的構成に焦点をあてて検討する。
我々は、関連する専門知識を持つ参加者を著者とレビュアープールに分割する仮説的な会議設定で、インセンティブ付きランダム化制御試験を設計する。
行動科学の手法にインスパイアされた我々の新しいインセンティブ構造は、著者に対して、査読された論文に対して、提供された要約を許容できる品質に編集することを奨励する。
私たちの2x2のオブジェクト間の設計は、提供された抽象の暗黙のソースとそれの開示という2つの次元に拡張されます。
著者は、AI生成における高い可読性によって導かれる、ソース属性のないAI生成抽象体と比較して、人間による抽象体を編集する際に、最も多くの編集を行う。
ソース情報を公開すると、編集のボリュームは両方のソース処理に収束する。
レビュアーの決定は、抽象的な情報源の影響を受けていないが、編集された回数とかなりの相関がある。
慎重なスタイリスティックな編集、特にAI生成抽象化の場合、ソース情報の存在下では、受け入れの機会が向上する。
AI生成抽象化は、最小限のリビジョンで人間が書いたものと同等の許容レベルに達する可能性を秘めており、AI著者の認識は、客観的な品質ではなく、観察された編集行動の多くを駆動している。
本研究は,共同研究における資料開示の重要性を検証した。
関連論文リスト
- Does GenAI Rewrite How We Write? An Empirical Study on Two-Million Preprints [15.070885964897734]
生成型大規模言語モデル(LLM)は、原稿の書き方を変えることによって、さらなる破壊をもたらす可能性がある。
本稿は、2016年から2025年(115ヶ月)にかけての2100万件以上のプレプリントを4つの主要なリポジトリで大規模に分析することで、このギャップを解消する。
以上の結果から,LSMは提出サイクルと修正サイクルを加速し,言語的複雑性が緩やかに増加し,AI関連トピックが不均等に拡大したことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-18T01:37:40Z) - LiRA: A Multi-Agent Framework for Reliable and Readable Literature Review Generation [66.09346158850308]
文献レビュープロセスをエミュレートする多エージェント協調ワークフローLiRA(Literature Review Agents)を提案する。
LiRAは、コンテンツアウトライン、サブセクションの執筆、編集、レビュー、コヒーシブで包括的なレビュー記事の作成に特殊エージェントを使用している。
実世界のシナリオにおいて文書検索を用いてLiRAを評価し,そのロバスト性を評価する。
論文 参考訳(メタデータ) (2025-10-01T12:14:28Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - The Discovery Engine: A Framework for AI-Driven Synthesis and Navigation of Scientific Knowledge Landscapes [0.0]
本稿では,文献を科学的領域の統一的,計算的に抽出可能な表現に変換するフレームワークであるDiscovery Engineを紹介する。
Discovery Engineは、AIが強化した科学調査と発見の加速のための新しいパラダイムを提供する。
論文 参考訳(メタデータ) (2025-05-23T05:51:34Z) - Advancing AI Research Assistants with Expert-Involved Learning [84.30323604785646]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、生物医学的な発見を促進することを約束するが、その信頼性は未定である。
ARIEL(AI Research Assistant for Expert-in-the-Loop Learning)は,オープンソースの評価・最適化フレームワークである。
LMMは詳細な視覚的推論に苦しむのに対し、最先端のモデルでは流動性はあるが不完全な要約を生成する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - Who Writes the Review, Human or AI? [0.36498648388765503]
本研究では,AIによる書評と人間による書評を正確に区別する手法を提案する。
提案手法は移動学習を利用して,異なるトピック間で生成したテキストを識別する。
実験の結果、元のテキストのソースを検出でき、精度96.86%に達することが示されている。
論文 参考訳(メタデータ) (2024-05-30T17:38:44Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Cracking Double-Blind Review: Authorship Attribution with Deep Learning [43.483063713471935]
本稿では、匿名の原稿を著者に属性付けるトランスフォーマーベースのニューラルネットワークアーキテクチャを提案する。
我々は、arXivで公開されているすべての研究論文を200万冊以上の原稿に活用する。
本手法は, 論文の最大73%を正解する, 前代未聞の著者帰属精度を実現する。
論文 参考訳(メタデータ) (2022-11-14T15:50:24Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。