論文の概要: Operationalising the Definition of General Purpose AI Systems: Assessing
Four Approaches
- arxiv url: http://arxiv.org/abs/2306.02889v1
- Date: Mon, 5 Jun 2023 13:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:42:10.821160
- Title: Operationalising the Definition of General Purpose AI Systems: Assessing
Four Approaches
- Title(参考訳): 汎用AIシステムの定義の運用:4つのアプローチの評価
- Authors: Risto Uuk, Carlos Ignacio Gutierrez, Alex Tamkin
- Abstract要約: 欧州連合(EU)の人工知能(AI)法は、AI技術を規制するための画期的な法的手段となる。
汎用AIシステムに関するいくつかの定義は、AI法に関連して存在し、固定目的と無目的のシステムを区別しようとするものである。
我々は、AIシステムがGPAISに分類されるべきかどうかを判断する4つのアプローチを検討する。
- 参考スコア(独自算出の注目度): 7.014955272682494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The European Union's Artificial Intelligence (AI) Act is set to be a landmark
legal instrument for regulating AI technology. While stakeholders have
primarily focused on the governance of fixed purpose AI applications (also
known as narrow AI), more attention is required to understand the nature of
highly and broadly capable systems. As of the beginning of 2023, several
definitions for General Purpose AI Systems (GPAIS) exist in relation to the AI
Act, attempting to distinguish between systems with and without a fixed
purpose. In this article, we operationalise these differences through the
concept of "distinct tasks" and examine four approaches (quantity, performance,
adaptability, and emergence) to determine whether an AI system should be
classified as a GPAIS. We suggest that EU stakeholders use the four approaches
as a starting point to discriminate between fixed-purpose and GPAIS.
- Abstract(参考訳): 欧州連合(EU)の人工知能(AI)法は、AI技術を規制するための画期的な法的手段である。
ステークホルダーは、主に固定目的AIアプリケーション(狭義AIとも呼ばれる)のガバナンスに焦点を当ててきたが、高度で幅広い能力を持つシステムの性質を理解するためには、より多くの注意が必要である。
2023年初頭時点で、汎用aiシステム(gpais)の定義は、ai法に関連していくつか存在し、特定の目的と目的の区別を試みている。
本稿では、これらの違いを「個別タスク」の概念を通じて運用し、AIシステムがGPAISに分類されるべきかどうかを判断する4つのアプローチ(量、性能、適応性、出現)を検討する。
我々は、EUの利害関係者が4つのアプローチを、固定目的とGPAISを区別するための出発点として使うことを示唆する。
関連論文リスト
- The European Commitment to Human-Centered Technology: The Integral Role
of HCI in the EU AI Act's Success [2.95015454112751]
EUはAI法を制定し、AIベースのシステムの市場アクセスを規制している。
この法律は、透明性、説明可能性、AIシステムを理解し制御する人間の能力に関する規制に焦点を当てている。
EUは、人間中心のAIシステムに対する民主的な要求を発行し、それによって、AI開発における人間中心のイノベーションのための学際的な研究課題を発行する。
論文 参考訳(メタデータ) (2024-02-22T17:35:29Z) - How VADER is your AI? Towards a definition of artificial intelligence
systems appropriate for regulation [41.94295877935867]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - General Purpose Artificial Intelligence Systems (GPAIS): Properties,
Definition, Taxonomy, Societal Implications and Responsible Governance [16.030931070783637]
汎用人工知能システム(GPAIS)は、これらのAIシステムを指すものとして定義されている。
これまで、人工知能の可能性は、まるで人間であるかのように知的タスクを実行するのに十分強力であり、あるいはそれを改善することさえ可能であり、いまだに願望、フィクションであり、我々の社会にとっての危険であると考えられてきた。
本研究は,GPAISの既存の定義について論じ,その特性や限界に応じて,GPAISの種類間で段階的な分化を可能にする新しい定義を提案する。
論文 参考訳(メタデータ) (2023-07-26T16:35:48Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。