論文の概要: The Provenance Problem: LLMs and the Breakdown of Citation Norms
- arxiv url: http://arxiv.org/abs/2509.13365v1
- Date: Mon, 15 Sep 2025 18:01:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.562597
- Title: The Provenance Problem: LLMs and the Breakdown of Citation Norms
- Title(参考訳): 環境問題:LCMとサイテーションノームの崩壊
- Authors: Brian D. Earp, Haotian Yuan, Julian Koplin, Sebastian Porsdam Mann,
- Abstract要約: 科学的執筆における生成AIの利用の増加は、帰属と知的信用に関する緊急の疑問を提起する。
このような事例は、学術的信用の連鎖の体系的な崩壊である「証明問題」を実証していると論じる。
このパースペクティブは、AIが著者の規範を確立する方法について分析し、問題の証明を理解するための概念的ツールを導入し、学術コミュニケーションにおける完全性と公平性を維持するための戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increasing use of generative AI in scientific writing raises urgent questions about attribution and intellectual credit. When a researcher employs ChatGPT to draft a manuscript, the resulting text may echo ideas from sources the author has never encountered. If an AI system reproduces insights from, for example, an obscure 1975 paper without citation, does this constitute plagiarism? We argue that such cases exemplify the 'provenance problem': a systematic breakdown in the chain of scholarly credit. Unlike conventional plagiarism, this phenomenon does not involve intent to deceive (researchers may disclose AI use and act in good faith) yet still benefit from the uncredited intellectual contributions of others. This dynamic creates a novel category of attributional harm that current ethical and professional frameworks fail to address. As generative AI becomes embedded across disciplines, the risk that significant ideas will circulate without recognition threatens both the reputational economy of science and the demands of epistemic justice. This Perspective analyzes how AI challenges established norms of authorship, introduces conceptual tools for understanding the provenance problem, and proposes strategies to preserve integrity and fairness in scholarly communication.
- Abstract(参考訳): 科学的執筆における生成AIの利用の増加は、帰属と知的信用に関する緊急の疑問を提起する。
研究者がChatGPTを使って原稿の草稿を作成すると、得られたテキストは著者が遭遇したことのない情報源のアイデアを反映する可能性がある。
もしAIシステムが1975年の不明瞭な論文から洞察を再現するとしたら、これは盗作行為なのだろうか?
このような事例は、学術的信用の連鎖の体系的な崩壊である「証明問題」を実証していると論じる。
従来の盗作主義とは異なり、この現象は騙す意図を伴わない(研究者はAIの使用を開示し、誠実に行動する可能性がある)が、他の研究者の信用できない知的貢献の恩恵を受けている。
このダイナミクスは、現在の倫理的および専門的なフレームワークが対応できない、新たな帰属的害のカテゴリを生み出します。
生成AIが分野に埋め込まれるにつれて、重要なアイデアが認識されずに流通するリスクは、科学の評判経済と疫学の正義の要求の両方を脅かす。
このパースペクティブは、AIが著者の規範を確立する方法を分析し、証明問題を理解するための概念的ツールを導入し、学術コミュニケーションにおける完全性と公平性を維持するための戦略を提案する。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis [0.6831861881190009]
メディアが広く報道されているにもかかわらず、既存のリスク談話に対する懐疑論は学術文献で限られた厳格な扱いを受けている。
本稿では,既存のリスクの観点からの3つの共通論点を再構築し,評価する。
よりバランスのとれた学術談話とAI研究のための基盤を提供することを目標としている。
論文 参考訳(メタデータ) (2025-01-07T11:15:26Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy? [0.0]
我々は,学術界で現在進行中の議論を,主要な学術出版社によるニュース記事,編集,立場声明のレビューで報告する。
学術的な執筆を目的として,ChatGPTと類似のAIツールの潜在的に有用な機能と有意義な応用について概説する。
論文 参考訳(メタデータ) (2023-10-07T23:31:24Z) - A Critical Examination of the Ethics of AI-Mediated Peer Review [0.0]
人工知能(AI)システムの最近の進歩は、学術的な査読のための約束と危機を提供する。
人間のピアレビューシステムは、バイアスや虐待、透明性の欠如など、関連する問題にも悩まされている。
AI駆動のピアレビューの正当性は、科学的倫理と一致している。
論文 参考訳(メタデータ) (2023-09-02T18:14:10Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。