論文の概要: Critically Engaged Pragmatism: A Scientific Norm and Social, Pragmatist Epistemology for AI Science Evaluation Tools
- arxiv url: http://arxiv.org/abs/2601.09753v1
- Date: Tue, 13 Jan 2026 02:02:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.837494
- Title: Critically Engaged Pragmatism: A Scientific Norm and Social, Pragmatist Epistemology for AI Science Evaluation Tools
- Title(参考訳): 批判的なプラグマティズム:AIサイエンス評価ツールのための科学的規範と社会的、プラグマティズムの認識論
- Authors: Carole J. Lee,
- Abstract要約: 私は、AI科学評価ツールが特に偽の上昇を起こす傾向にあることに注意する。
私は、社会的でプラグマティストであり、AI科学評価ツールの目的と目的固有の信頼性を活発に精査するために、科学コミュニティに協力する、批判的に包括された新たな規範を論じます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Crises in peer review capacity, study replication, and AI-fabricated science have intensified interest in automated tools for assessing scientific research. However, the scientific community has a history of decontextualizing and repurposing credibility markers in inapt ways. I caution that AI science evaluation tools are particularly prone to these kinds of inference by false ascent due to contestation about the purposes to which they should be put, their portability across purposes, and technical demands that prioritize data set size over epistemic fit. To counter this, I argue for a social, pragmatist epistemology and a newly articulated norm of Critically Engaged Pragmatism to enjoin scientific communities to vigorously scrutinize the purposes and purpose-specific reliability of AI science evaluation tools. Under this framework, AI science evaluation tools are not objective arbiters of scientific credibility, but the object of the kinds of critical discursive practices that ground the credibility of scientific communities.
- Abstract(参考訳): ピアレビューの能力、研究の複製、AIによって構築された科学に対する批判は、科学研究を評価する自動化ツールへの関心を強めている。
しかし、科学コミュニティには、不適切な方法で信頼性マーカーを非コンテクスチュアライズし、再購入する歴史がある。
AIサイエンス評価ツールは、その目的、目的を越えたポータビリティ、およびエピステミック適合性よりもデータセットサイズを優先する技術的要求に関する議論によって、特に偽の上昇によるこのような推論の傾向に注意する。
これに対抗するために、私は、社会的、プラグマティズムの認識論と、AI科学評価ツールの目的と目的固有の信頼性を活発に精査するために、科学コミュニティに協力する批判的包摂的プラグマティズムの新たな定式化された規範を論じます。
この枠組みの下では、AI科学評価ツールは、科学的信頼性の客観的なアービターではなく、科学コミュニティの信頼性を基盤とする、批判的な分散的な実践の目的である。
関連論文リスト
- Is Research Software Science a Metascience? [0.0]
我々はメタサイエンスとRSSを定義し、それらの原則と目的を比較し、それらの重複について検討する。
RSSは、メタサイエンスと整合した学際的なドメインとして最もよく理解されていると我々は主張する。
分類に拘わらず、科学的な厳格さを研究ソフトウェアに適用することで、発見のツールが発見そのものの標準を満たすことを保証する。
論文 参考訳(メタデータ) (2025-09-16T18:13:52Z) - Demystifying Scientific Problem-Solving in LLMs by Probing Knowledge and Reasoning [53.82037883518254]
SciReasは、科学的推論タスクのための様々なベンチマークスイートである。
次に、科学的タスクにおける推論と知識の異なる役割を研究するための探索フレームワークであるKRUXを提案する。
論文 参考訳(メタデータ) (2025-08-26T17:04:23Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - AI Scientists Fail Without Strong Implementation Capability [33.232300349142285]
人工知能(AI)科学者の出現は、科学的発見のパラダイムシフトを表している。
最近のAI Scientist研究は、独立した科学的発見のための十分な能力を示している。
この大きな進歩にもかかわらず、AI Scientistはコンピュータ科学の分野における画期的な成果をまだ生み出していない。
論文 参考訳(メタデータ) (2025-06-02T06:59:10Z) - Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。