論文の概要: Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor
- arxiv url: http://arxiv.org/abs/2506.14652v1
- Date: Tue, 17 Jun 2025 15:44:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.556415
- Title: Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor
- Title(参考訳): AIにおけるRigor: より広範で責任のあるAIインフォームドの概念を必要とする厳格なAI作業
- Authors: Alexandra Olteanu, Su Lin Blodgett, Agathe Balayn, Angelina Wang, Fernando Diaz, Flavio du Pin Calmon, Margaret Mitchell, Michael Ekstrand, Reuben Binns, Solon Barocas,
- Abstract要約: 我々は、厳格なAI研究と実践が持つべきものに対するより広範な概念が必要とされると論じている。
我々は,AIコミュニティの作業に関する対話に有用な言語とフレームワークを提供することを目標としている。
- 参考スコア(独自算出の注目度): 83.99510317617694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In AI research and practice, rigor remains largely understood in terms of methodological rigor -- such as whether mathematical, statistical, or computational methods are correctly applied. We argue that this narrow conception of rigor has contributed to the concerns raised by the responsible AI community, including overblown claims about AI capabilities. Our position is that a broader conception of what rigorous AI research and practice should entail is needed. We believe such a conception -- in addition to a more expansive understanding of (1) methodological rigor -- should include aspects related to (2) what background knowledge informs what to work on (epistemic rigor); (3) how disciplinary, community, or personal norms, standards, or beliefs influence the work (normative rigor); (4) how clearly articulated the theoretical constructs under use are (conceptual rigor); (5) what is reported and how (reporting rigor); and (6) how well-supported the inferences from existing evidence are (interpretative rigor). In doing so, we also aim to provide useful language and a framework for much-needed dialogue about the AI community's work by researchers, policymakers, journalists, and other stakeholders.
- Abstract(参考訳): AI研究と実践において、厳密さは方法論的厳密さ(数学的、統計学的、または計算的手法が正しく適用されているかどうかなど)の観点から大きく理解されている。我々は、厳密さというこの狭い概念が、AI能力に関する過剰な主張を含む、責任あるAIコミュニティによって提起された懸念に寄与していると主張している。我々の立場は、厳密なAI研究と実践が必要とするものに関するより広範な概念である。我々は、(1)方法論厳密さのより広範な理解に加えて、その概念は、(2)背景知識が仕事に何を報いるか(経済厳密さ)、(3)学際的、コミュニティ、または個人的規範、標準、あるいは信念が仕事にどのように影響するか(規範的厳密さ)、(4)理論的(概念的厳密さ)がいかに具体化されているか、そして(6.6.)。
また、研究者、政策立案者、ジャーナリスト、その他の利害関係者によるAIコミュニティの仕事に関する、非常に関心のある対話のための有用な言語とフレームワークの提供も目標としています。
関連論文リスト
- Beyond Statistical Learning: Exact Learning Is Essential for General Intelligence [59.07578850674114]
音の誘惑的推論は、一般知能の必然的に望ましい側面である。
もっとも先進的なフロンティアシステムでさえ、定期的かつ一貫して容易に解決可能な推論タスクに干渉していることは、よく文書化されている。
彼らの不健全な振る舞いは、彼らの発展を支えている統計的学習のアプローチの結果である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-30T14:37:50Z) - Position: We Need Responsible, Application-Driven (RAD) AI Research [5.472297350890938]
このポジションペーパーは、人工知能(AI)による有意義な科学的および社会的進歩を達成するには、AI研究に対する責任あるアプリケーション駆動アプローチ(RAD)が必要であると主張している。
我々は、技術的に実現可能な方法で新しい価値を解放するアプリケーション駆動型AI研究の将来へのビジョンを提示する。
論文 参考訳(メタデータ) (2025-05-07T03:43:52Z) - Artificial Expert Intelligence through PAC-reasoning [21.91294369791479]
人工知能(AEI)は、人工知能(AGI)と狭義のAIの両方の限界を超越しようとしている。
AEIは、ドメイン固有の専門知識と、トップヒューマンの専門家と同様、批判的で正確な推論能力を統合することを目指している。
論文 参考訳(メタデータ) (2024-12-03T13:25:18Z) - Establishing and Evaluating Trustworthy AI: Overview and Research Challenges [4.806063079434686]
一部のAIシステムは予期せぬ結果または望ましくない結果をもたらすか、疑わしい方法で使用された。
本稿では,信頼に値するAIの既存の概念を6つの要件に従って合成する。
幅広い読者の参考として、そして将来の研究方向性の基礎として機能することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T06:05:52Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。