論文の概要: The Provenance Problem: LLMs and the Breakdown of Citation Norms
- arxiv url: http://arxiv.org/abs/2509.13365v1
- Date: Mon, 15 Sep 2025 18:01:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.562597
- Title: The Provenance Problem: LLMs and the Breakdown of Citation Norms
- Title(参考訳): 環境問題:LCMとサイテーションノームの崩壊
- Authors: Brian D. Earp, Haotian Yuan, Julian Koplin, Sebastian Porsdam Mann,
- Abstract要約: 科学的執筆における生成AIの利用の増加は、帰属と知的信用に関する緊急の疑問を提起する。
このような事例は、学術的信用の連鎖の体系的な崩壊である「証明問題」を実証していると論じる。
このパースペクティブは、AIが著者の規範を確立する方法について分析し、問題の証明を理解するための概念的ツールを導入し、学術コミュニケーションにおける完全性と公平性を維持するための戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increasing use of generative AI in scientific writing raises urgent questions about attribution and intellectual credit. When a researcher employs ChatGPT to draft a manuscript, the resulting text may echo ideas from sources the author has never encountered. If an AI system reproduces insights from, for example, an obscure 1975 paper without citation, does this constitute plagiarism? We argue that such cases exemplify the 'provenance problem': a systematic breakdown in the chain of scholarly credit. Unlike conventional plagiarism, this phenomenon does not involve intent to deceive (researchers may disclose AI use and act in good faith) yet still benefit from the uncredited intellectual contributions of others. This dynamic creates a novel category of attributional harm that current ethical and professional frameworks fail to address. As generative AI becomes embedded across disciplines, the risk that significant ideas will circulate without recognition threatens both the reputational economy of science and the demands of epistemic justice. This Perspective analyzes how AI challenges established norms of authorship, introduces conceptual tools for understanding the provenance problem, and proposes strategies to preserve integrity and fairness in scholarly communication.
- Abstract(参考訳): 科学的執筆における生成AIの利用の増加は、帰属と知的信用に関する緊急の疑問を提起する。
研究者がChatGPTを使って原稿の草稿を作成すると、得られたテキストは著者が遭遇したことのない情報源のアイデアを反映する可能性がある。
もしAIシステムが1975年の不明瞭な論文から洞察を再現するとしたら、これは盗作行為なのだろうか?
このような事例は、学術的信用の連鎖の体系的な崩壊である「証明問題」を実証していると論じる。
従来の盗作主義とは異なり、この現象は騙す意図を伴わない(研究者はAIの使用を開示し、誠実に行動する可能性がある)が、他の研究者の信用できない知的貢献の恩恵を受けている。
このダイナミクスは、現在の倫理的および専門的なフレームワークが対応できない、新たな帰属的害のカテゴリを生み出します。
生成AIが分野に埋め込まれるにつれて、重要なアイデアが認識されずに流通するリスクは、科学の評判経済と疫学の正義の要求の両方を脅かす。
このパースペクティブは、AIが著者の規範を確立する方法を分析し、証明問題を理解するための概念的ツールを導入し、学術コミュニケーションにおける完全性と公平性を維持するための戦略を提案する。
関連論文リスト
- Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor [83.99510317617694]
我々は、厳格なAI研究と実践が持つべきものに対するより広範な概念が必要とされると論じている。
我々は,AIコミュニティの作業に関する対話に有用な言語とフレームワークを提供することを目標としている。
論文 参考訳(メタデータ) (2025-06-17T15:44:41Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis [0.6831861881190009]
メディアが広く報道されているにもかかわらず、既存のリスク談話に対する懐疑論は学術文献で限られた厳格な扱いを受けている。
本稿では,既存のリスクの観点からの3つの共通論点を再構築し,評価する。
よりバランスのとれた学術談話とAI研究のための基盤を提供することを目標としている。
論文 参考訳(メタデータ) (2025-01-07T11:15:26Z) - Suspected Undeclared Use of Artificial Intelligence in the Academic Literature: An Analysis of the Academ-AI Dataset [0.0]
アカデミックAIは、学術文献における未宣言のAI使用の疑いのある事例を文書化している。
宣言されていないAIは、引用基準が高く、記事処理料金が高いジャーナルに現れるようだ。
論文 参考訳(メタデータ) (2024-11-20T21:29:36Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Authorship Attribution in the Era of LLMs: Problems, Methodologies, and Challenges [16.35265384114857]
LLM(Large Language Models)の急速な進歩は、人間と機械のオーサシップの境界線を曖昧にしている。
この文献レビューは、この急速に発展する分野における芸術の状況を理解することに興味を持つ研究者や実践者のためのロードマップを提供する。
論文 参考訳(メタデータ) (2024-08-16T17:58:49Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Using Generative AI for Literature Searches and Scholarly Writing: Is
the Integrity of the Scientific Discourse in Jeopardy? [0.0]
我々は,学術界で現在進行中の議論を,主要な学術出版社によるニュース記事,編集,立場声明のレビューで報告する。
学術的な執筆を目的として,ChatGPTと類似のAIツールの潜在的に有用な機能と有意義な応用について概説する。
論文 参考訳(メタデータ) (2023-10-07T23:31:24Z) - A Critical Examination of the Ethics of AI-Mediated Peer Review [0.0]
人工知能(AI)システムの最近の進歩は、学術的な査読のための約束と危機を提供する。
人間のピアレビューシステムは、バイアスや虐待、透明性の欠如など、関連する問題にも悩まされている。
AI駆動のピアレビューの正当性は、科学的倫理と一致している。
論文 参考訳(メタデータ) (2023-09-02T18:14:10Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。