論文の概要: Stop DDoS Attacking the Research Community with AI-Generated Survey Papers
- arxiv url: http://arxiv.org/abs/2510.09686v1
- Date: Thu, 09 Oct 2025 05:55:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.557434
- Title: Stop DDoS Attacking the Research Community with AI-Generated Survey Papers
- Title(参考訳): AIによる調査論文による研究コミュニティへのDDoS攻撃の停止
- Authors: Jianghao Lin, Rong Shan, Jiachen Zhu, Yunjia Xi, Yong Yu, Weinan Zhang,
- Abstract要約: 我々は、膨大な量のAI生成調査論文を研究コミュニティにアップロードするのをやめなければならないと論じている。
私たちは、AI利用における専門家の監視と透明性の回復を呼びかけています。
調査の完全性を守ることはもはやオプションではなく、研究コミュニティにとって必須であることを示します。
- 参考スコア(独自算出の注目度): 27.03595915182805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Survey papers are foundational to the scholarly progress of research communities, offering structured overviews that guide both novices and experts across disciplines. However, the recent surge of AI-generated surveys, especially enabled by large language models (LLMs), has transformed this traditionally labor-intensive genre into a low-effort, high-volume output. While such automation lowers entry barriers, it also introduces a critical threat: the phenomenon we term the "survey paper DDoS attack" to the research community. This refers to the unchecked proliferation of superficially comprehensive but often redundant, low-quality, or even hallucinated survey manuscripts, which floods preprint platforms, overwhelms researchers, and erodes trust in the scientific record. In this position paper, we argue that we must stop uploading massive amounts of AI-generated survey papers (i.e., survey paper DDoS attack) to the research community, by instituting strong norms for AI-assisted review writing. We call for restoring expert oversight and transparency in AI usage and, moreover, developing new infrastructures such as Dynamic Live Surveys, community-maintained, version-controlled repositories that blend automated updates with human curation. Through quantitative trend analysis, quality audits, and cultural impact discussion, we show that safeguarding the integrity of surveys is no longer optional but imperative to the research community.
- Abstract(参考訳): 調査論文は、研究コミュニティの学術的進歩の基礎であり、初心者と専門分野のエキスパートの両方をガイドする構造化された概要を提供している。
しかし、近年のAIによる調査の急増、特に大規模言語モデル(LLM)によって実現されたこの伝統的な労働集約的なジャンルは、低益で高ボリュームなアウトプットへと変化している。
このような自動化は参入障壁を低くする一方で、重要な脅威ももたらします。
これは、表面的には包括的ではあるが、しばしば冗長で、品質の低い、あるいは幻覚的な調査用原稿が、事前印刷されたプラットフォームを浸水させ、研究者を圧倒し、科学的記録への信頼を損なうことを指す。
本稿では,AI支援レビュー作成の強い規範を定め,膨大な量のAI生成調査論文(DDoS攻撃調査紙)を研究コミュニティにアップロードするのをやめなければならないと論じる。
AI利用における専門家の監視と透明性の回復,さらにはDynamic Live Surveysやコミュニティが管理するバージョン管理リポジトリなど,自動アップデートと人間のキュレーションを融合した新たなインフラストラクチャの開発も求めています。
定量的な傾向分析、品質監査、文化的影響に関する議論を通じて、調査の完全性を守ることはもはやオプションではなく、研究コミュニティにとって必須であることを示す。
関連論文リスト
- Generative AI as a Safety Net for Survey Question Refinement [0.0]
ChatGPTや他の生成AIモデルプラットフォームは、日常のプロセスに統合されている。
我々は,平均的なChatGPTユーザが期待できる質問に対するフィードバックの種類を体系的にテストするために,迅速な実験を実施している。
ゼロショットプロンプト実験の結果は、ChatGPTのバージョンとモデルに与えられたペルソナをランダム化したものだ。
論文 参考訳(メタデータ) (2025-09-10T15:52:10Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - From Hypothesis to Publication: A Comprehensive Survey of AI-Driven Research Support Systems [40.10425916520717]
近年、人工知能(AI)技術の急速な発展は、研究者にAIが研究を加速し、強化する方法を探るきっかけとなった。
本稿では,本領域の進展を体系的に概観する。
我々は,関連する研究を仮説定式化,仮説検証,原稿出版という3つの主要なカテゴリに分類する。
論文 参考訳(メタデータ) (2025-03-03T11:27:13Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。