論文の概要: Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor
- arxiv url: http://arxiv.org/abs/2506.14652v1
- Date: Tue, 17 Jun 2025 15:44:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.556415
- Title: Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor
- Title(参考訳): AIにおけるRigor: より広範で責任のあるAIインフォームドの概念を必要とする厳格なAI作業
- Authors: Alexandra Olteanu, Su Lin Blodgett, Agathe Balayn, Angelina Wang, Fernando Diaz, Flavio du Pin Calmon, Margaret Mitchell, Michael Ekstrand, Reuben Binns, Solon Barocas,
- Abstract要約: 我々は、厳格なAI研究と実践が持つべきものに対するより広範な概念が必要とされると論じている。
我々は,AIコミュニティの作業に関する対話に有用な言語とフレームワークを提供することを目標としている。
- 参考スコア(独自算出の注目度): 83.99510317617694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In AI research and practice, rigor remains largely understood in terms of methodological rigor -- such as whether mathematical, statistical, or computational methods are correctly applied. We argue that this narrow conception of rigor has contributed to the concerns raised by the responsible AI community, including overblown claims about AI capabilities. Our position is that a broader conception of what rigorous AI research and practice should entail is needed. We believe such a conception -- in addition to a more expansive understanding of (1) methodological rigor -- should include aspects related to (2) what background knowledge informs what to work on (epistemic rigor); (3) how disciplinary, community, or personal norms, standards, or beliefs influence the work (normative rigor); (4) how clearly articulated the theoretical constructs under use are (conceptual rigor); (5) what is reported and how (reporting rigor); and (6) how well-supported the inferences from existing evidence are (interpretative rigor). In doing so, we also aim to provide useful language and a framework for much-needed dialogue about the AI community's work by researchers, policymakers, journalists, and other stakeholders.
- Abstract(参考訳): AI研究と実践において、厳密さは方法論的厳密さ(数学的、統計学的、または計算的手法が正しく適用されているかどうかなど)の観点から大きく理解されている。我々は、厳密さというこの狭い概念が、AI能力に関する過剰な主張を含む、責任あるAIコミュニティによって提起された懸念に寄与していると主張している。我々の立場は、厳密なAI研究と実践が必要とするものに関するより広範な概念である。我々は、(1)方法論厳密さのより広範な理解に加えて、その概念は、(2)背景知識が仕事に何を報いるか(経済厳密さ)、(3)学際的、コミュニティ、または個人的規範、標準、あるいは信念が仕事にどのように影響するか(規範的厳密さ)、(4)理論的(概念的厳密さ)がいかに具体化されているか、そして(6.6.)。
また、研究者、政策立案者、ジャーナリスト、その他の利害関係者によるAIコミュニティの仕事に関する、非常に関心のある対話のための有用な言語とフレームワークの提供も目標としています。
関連論文リスト
- Establishing and Evaluating Trustworthy AI: Overview and Research Challenges [4.806063079434686]
一部のAIシステムは予期せぬ結果または望ましくない結果をもたらすか、疑わしい方法で使用された。
本稿では,信頼に値するAIの既存の概念を6つの要件に従って合成する。
幅広い読者の参考として、そして将来の研究方向性の基礎として機能することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T06:05:52Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。