論文の概要: Operationalising the Definition of General Purpose AI Systems: Assessing
Four Approaches
- arxiv url: http://arxiv.org/abs/2306.02889v1
- Date: Mon, 5 Jun 2023 13:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:42:10.821160
- Title: Operationalising the Definition of General Purpose AI Systems: Assessing
Four Approaches
- Title(参考訳): 汎用AIシステムの定義の運用:4つのアプローチの評価
- Authors: Risto Uuk, Carlos Ignacio Gutierrez, Alex Tamkin
- Abstract要約: 欧州連合(EU)の人工知能(AI)法は、AI技術を規制するための画期的な法的手段となる。
汎用AIシステムに関するいくつかの定義は、AI法に関連して存在し、固定目的と無目的のシステムを区別しようとするものである。
我々は、AIシステムがGPAISに分類されるべきかどうかを判断する4つのアプローチを検討する。
- 参考スコア(独自算出の注目度): 7.014955272682494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The European Union's Artificial Intelligence (AI) Act is set to be a landmark
legal instrument for regulating AI technology. While stakeholders have
primarily focused on the governance of fixed purpose AI applications (also
known as narrow AI), more attention is required to understand the nature of
highly and broadly capable systems. As of the beginning of 2023, several
definitions for General Purpose AI Systems (GPAIS) exist in relation to the AI
Act, attempting to distinguish between systems with and without a fixed
purpose. In this article, we operationalise these differences through the
concept of "distinct tasks" and examine four approaches (quantity, performance,
adaptability, and emergence) to determine whether an AI system should be
classified as a GPAIS. We suggest that EU stakeholders use the four approaches
as a starting point to discriminate between fixed-purpose and GPAIS.
- Abstract(参考訳): 欧州連合(EU)の人工知能(AI)法は、AI技術を規制するための画期的な法的手段である。
ステークホルダーは、主に固定目的AIアプリケーション(狭義AIとも呼ばれる)のガバナンスに焦点を当ててきたが、高度で幅広い能力を持つシステムの性質を理解するためには、より多くの注意が必要である。
2023年初頭時点で、汎用aiシステム(gpais)の定義は、ai法に関連していくつか存在し、特定の目的と目的の区別を試みている。
本稿では、これらの違いを「個別タスク」の概念を通じて運用し、AIシステムがGPAISに分類されるべきかどうかを判断する4つのアプローチ(量、性能、適応性、出現)を検討する。
我々は、EUの利害関係者が4つのアプローチを、固定目的とGPAISを区別するための出発点として使うことを示唆する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Switch, the Ladder, and the Matrix: Models for Classifying AI Systems [0.0]
AI倫理の原則と実践の間にはまだギャップがある。
AI倫理を運用しようとする組織が直面する大きな障害のひとつは、明確に定義された材料スコープの欠如である。
論文 参考訳(メタデータ) (2024-07-07T12:16:01Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Human Oversight of Artificial Intelligence and Technical Standardisation [0.0]
AIのグローバルガバナンスの中で、人間の監視の要件は、いくつかの規制形式に具体化されている。
そのため、欧州連合(EU)の立法府は、人間の監督に対する法的要件を「取り除く」ために、過去よりもはるかに進んでいる。
AI意思決定プロセスにおける人間の位置に関する疑問は、特に注目されるべきである。
論文 参考訳(メタデータ) (2024-07-02T07:43:46Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - The European Commitment to Human-Centered Technology: The Integral Role of HCI in the EU AI Act's Success [4.202570851109354]
EUはAI法を制定し、AIベースのシステムの市場アクセスを規制している。
この法律は、透明性、説明可能性、AIシステムを理解し制御する人間の能力に関する規制に焦点を当てている。
EUは、人間中心のAIシステムに対する民主的な要求を発行し、それによって、AI開発における人間中心のイノベーションのための学際的な研究課題を発行する。
論文 参考訳(メタデータ) (2024-02-22T17:35:29Z) - How VADER is your AI? Towards a definition of artificial intelligence
systems appropriate for regulation [41.94295877935867]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。