論文の概要: The Journal of Prompt-Engineered Philosophy Or: How I Started to Track AI Assistance and Stopped Worrying About Slop
- arxiv url: http://arxiv.org/abs/2511.08639v1
- Date: Thu, 13 Nov 2025 01:01:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.164511
- Title: The Journal of Prompt-Engineered Philosophy Or: How I Started to Track AI Assistance and Stopped Worrying About Slop
- Title(参考訳): The Journal of Prompt-Engineered Philosophy or: I Started to Track AI Assistance and Stopped Concerning about Slop
- Authors: Michele Loi,
- Abstract要約: 記事は、インセンティブがいかに透明性を損なうかを分析します。
伝統的な会場は政策の調整だけでこの緊張を解消できない。
義務的な開示を強制し、複製に基づくレビューを可能にし、詳細なドキュメントを通じて生態学的妥当性をサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Academic publishing increasingly requires authors to disclose AI assistance, yet imposes reputational costs for doing so--especially when such assistance is substantial. This article analyzes that structural contradiction, showing how incentives discourage transparency in precisely the work where it matters most. Traditional venues cannot resolve this tension through policy tweaks alone, as the underlying prestige economy rewards opacity. To address this, the article proposes an alternative publishing infrastructure: a venue outside prestige systems that enforces mandatory disclosure, enables reproduction-based review, and supports ecological validity through detailed documentation. As a demonstration of this approach, the article itself is presented as an example of AI-assisted scholarship under reasonably detailed disclosure, with representative prompt logs and modification records included. Rather than taking a position for or against AI-assisted scholarship, the article outlines conditions under which such work can be evaluated on its own terms: through transparent documentation, verification-oriented review, and participation by methodologically committed scholars. While focused on AI, the framework speaks to broader questions about how academic systems handle methodological innovation.
- Abstract(参考訳): 学術出版は、著者がAI支援を公開することをますます必要としていますが、特にそのような支援が相当な場合には、そうすることに対する評判の高いコストを課します。
この記事では、構造的な矛盾を分析し、インセンティブがいかに透明性を損なうかを示します。
伝統的な会場は政策の調整だけでこの緊張を解消できない。
そこで本論文では, 強制公開を強制し, 再生に基づくレビューを可能にし, 詳細な資料を通じて生態学的妥当性を裏付ける, 権威あるシステム外の場所として, 新たな出版基盤を提案する。
このアプローチの実証として、論文自体がAI支援奨学金の例として提示され、代表的なプロンプトログと修正記録が含まれている。
論文は、AI支援奨学金の立場を取るか、反対する代わりに、透明なドキュメント、検証指向のレビュー、方法論的にコミットされた学者による参加を通じて、これらの作業が自身の用語で評価できる条件を概説する。
AIにフォーカスしながら、このフレームワークは、学術システムが方法論的なイノベーションをどのように扱うかについて、より広範な疑問に答えている。
関連論文リスト
- The Provenance Problem: LLMs and the Breakdown of Citation Norms [0.0]
科学的執筆における生成AIの利用の増加は、帰属と知的信用に関する緊急の疑問を提起する。
このような事例は、学術的信用の連鎖の体系的な崩壊である「証明問題」を実証していると論じる。
このパースペクティブは、AIが著者の規範を確立する方法について分析し、問題の証明を理解するための概念的ツールを導入し、学術コミュニケーションにおける完全性と公平性を維持するための戦略を提案する。
論文 参考訳(メタデータ) (2025-09-15T18:01:03Z) - Identity Theft in AI Conference Peer Review [50.18240135317708]
人工知能(AI)研究における科学的ピアレビュープロセスにおいて,新たに発見されたID盗難事例について論じる。
論文評価の操作に不正なレビュアープロファイルを作成することにより、不正直な研究者がピアレビューシステムをどのように活用するかを詳述する。
論文 参考訳(メタデータ) (2025-08-06T02:36:52Z) - Hidden Prompts in Manuscripts Exploit AI-Assisted Peer Review [0.0]
プレプリントのウェブサイト arXiv にある18の学術写本は、AI支援ピアレビューを操作するために設計された隠された命令を含んでいることが発見された。
著者の反応は様々で、1人は影響を受けた論文を撤回する計画を立て、もう1人はレビュアーコンプライアンスの合法的なテストとしてプラクティスを擁護した。
大規模言語モデル (LLM) におけるプロンプト注入技術について検討し, 4種類の隠蔽プロンプトを明らかにする。
論文 参考訳(メタデータ) (2025-07-08T17:11:13Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Ethical AI: Towards Defining a Collective Evaluation Framework [0.3413711585591077]
人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T21:10:47Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - A Dataset on Malicious Paper Bidding in Peer Review [84.68308372858755]
悪意あるレビュアーは、紙の割り当てを非倫理的に操作するために戦略的に入札した。
この問題を緩和するための方法の作成と評価への重要な障害は、悪意ある紙入札に関する公開データの欠如である。
我々は、参加者に正直に、悪意的に入札するよう指示されたモックカンファレンス活動から収集された、新しいデータセットをリリースする。
論文 参考訳(メタデータ) (2022-06-24T20:23:33Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Making Paper Reviewing Robust to Bid Manipulation Attacks [44.34601846490532]
逸話的な証拠は、一部のレビュアーが「友人」あるいは「衝突する著者」による論文の入札を行ったことを示唆している。
我々は、そのような攻撃に対してより堅牢な、紙入札と割当てのための新しいアプローチを開発する。
より堅牢であることに加えて、論文レビューの課題の質は、現在の非ロバストな課題のアプローチに匹敵する。
論文 参考訳(メタデータ) (2021-02-09T21:24:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。