論文の概要: Towards Regulatable AI Systems: Technical Gaps and Policy Opportunities
- arxiv url: http://arxiv.org/abs/2306.12609v2
- Date: Wed, 27 Mar 2024 07:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 23:12:22.234361
- Title: Towards Regulatable AI Systems: Technical Gaps and Policy Opportunities
- Title(参考訳): レギュラブルAIシステムに向けて - 技術的ギャップと政策機会
- Authors: Xudong Shen, Hannah Brown, Jiashu Tao, Martin Strobel, Yao Tong, Akshay Narayan, Harold Soh, Finale Doshi-Velez,
- Abstract要約: AIの専門家は、規制要件に準拠するために、AIシステムをどの程度精査できるだろうか?
2つの公共セクターの調達チェックリストのレンズを通してこの問題を調査する。
- 参考スコア(独自算出の注目度): 26.50898051963262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is increasing attention being given to how to regulate AI systems. As governing bodies grapple with what values to encapsulate into regulation, we consider the technical half of the question: To what extent can AI experts vet an AI system for adherence to regulatory requirements? We investigate this question through the lens of two public sector procurement checklists, identifying what we can do now, what should be possible with technical innovation, and what requirements need a more interdisciplinary approach.
- Abstract(参考訳): AIシステムの規制方法に注目が集まっている。
AIの専門家は、規制要件に準拠するために、AIシステムをどの程度精査できるだろうか?
我々は、この疑問を、2つの公共セクターの調達チェックリストのレンズを通して調査し、現在何ができるか、技術的革新で何が可能か、より専門的なアプローチが必要かを特定します。
関連論文リスト
- The Necessity of AI Audit Standards Boards [0.0]
我々は、監査基準の作成は不十分であるだけでなく、無害で一貫性のない基準を広めることによって積極的に有害であると主張している。
代わりに、監査方法と標準を開発・更新する責任を持つAI監査基準委員会(AI Audit Standards Board)の設立を提案する。
論文 参考訳(メタデータ) (2024-04-11T15:08:24Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - How VADER is your AI? Towards a definition of artificial intelligence
systems appropriate for regulation [41.94295877935867]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - 'Team-in-the-loop' organisational oversight of high-stakes AI [0.0]
本稿では,制度分析による臨床意思決定の監督に対するAIの影響について考察する。
既存の監視は、専門的なトレーニング要件の中でネストされており、説明や質問に大きく依存しています。
我々は、ハイテイクな公共セクター展開において、AIの採用に必要なシステムレベルの分析を概念化するために、より広範な 'team-in-the-loop' レンズを提案する。
論文 参考訳(メタデータ) (2023-03-24T14:01:00Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Automated Compliance Blueprint Optimization with Artificial Intelligence [1.90073733366566]
銀行や医療において、クラウドコンピューティングの採用の大きな障害の1つは、規制基準の遵守である。
これは、企業が従わなければならない多くの規制および技術仕様(技術仕様)文書のため、複雑な問題である。
我々は,技術仕様と規制管理のマッピングを早期に検討し,このソリューションが完全に実用的であるためには克服すべき課題について議論する。
論文 参考訳(メタデータ) (2022-06-22T15:59:16Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A Pragmatic Approach to Regulating Artificial Intelligence: A Technology
Regulator's Perspective [1.614803913005309]
技術保証規制の枠組みを提供するための実践的なアプローチを提案する。
これらの規制は、すべてのAIベースのシステムに対して義務付けられてはならない。
論文 参考訳(メタデータ) (2021-04-15T16:49:29Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。