論文の概要: Foundations for the Future: Institution building for the purpose of
Artificial Intelligence governance
- arxiv url: http://arxiv.org/abs/2110.09238v1
- Date: Fri, 1 Oct 2021 10:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-12 19:47:37.897944
- Title: Foundations for the Future: Institution building for the purpose of
Artificial Intelligence governance
- Title(参考訳): 未来のための財団:人工知能ガバナンスのための機関ビル
- Authors: Charlotte Stix
- Abstract要約: 人工知能(AI)のガバナンスの取り組みは、ますます具体的になりつつある。
新しい機関は、国内および国際レベルで設置される必要がある。
本稿では、こうした機関の青写真をスケッチし、将来のAIガバナンス機関の3つの重要な構成要素を詳細に調査する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Governance efforts for artificial intelligence (AI) are taking on
increasingly more concrete forms, drawing on a variety of approaches and
instruments from hard regulation to standardisation efforts, aimed at
mitigating challenges from high-risk AI systems. To implement these and other
efforts, new institutions will need to be established on a national and
international level. This paper sketches a blueprint of such institutions, and
conducts in-depth investigations of three key components of any future AI
governance institutions, exploring benefits and associated drawbacks: (1)
purpose, relating to the institution's overall goals and scope of work or
mandate; (2) geography, relating to questions of participation and the reach of
jurisdiction; and (3) capacity, the infrastructural and human make-up of the
institution. Subsequently, the paper highlights noteworthy aspects of various
institutional roles specifically around questions of institutional purpose, and
frames what these could look like in practice, by placing these debates in a
European context and proposing different iterations of a European AI Agency.
Finally, conclusions and future research directions are proposed.
- Abstract(参考訳): 人工知能(ai)のガバナンスの取り組みは、ますます具体的になりつつあり、厳しい規制から標準化まで、リスクの高いaiシステムからの課題を軽減しようとする様々なアプローチや手段を描いている。
これらとその他の取り組みを実施するためには、国内外のレベルで新たな機関を設立する必要がある。
本稿では,これらの機関の青写真をスケッチし,将来のAIガバナンス機関の3つの重要な構成要素を詳細に調査し,そのメリットと欠点を探求する。(1) 機関の全体的な目標と作業範囲,あるいは委任事項に関する目的,(2) 参加や管轄範囲に関する地理,(3) 施設のインフラ・人的構成に関する能力,である。
その後、欧州の文脈にこれらの議論を置き、欧州のai機関のさまざまなイテレーションを提案することで、制度目的に関する質問に関する様々な機関の役割の注目すべき側面を強調する。
最後に、結論と今後の研究方向を提案する。
関連論文リスト
- Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Automating the Analysis of Institutional Design in International
Agreements [52.77024349608834]
開発ツールは、法的文書の収集、機関文法による注釈付け、グラフ解析による正式な制度設計の探索などの技術を利用している。
2003年、ユネスコ無形文化財保護条約(UNESCO Convention for the Safeguarding of the Intangible Cultural Heritage)が採択された。
論文 参考訳(メタデータ) (2023-05-26T08:57:11Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - A Framework for Understanding AI-Induced Field Change: How AI
Technologies are Legitimized and Institutionalized [0.0]
本稿では,AIによるフィールド変化を分析し,理解するための概念的枠組みを提案する。
新たなAIエージェントを新しい分野や既存の分野に導入することで、アルゴリズムが組織や機関を(再)形成するダイナミクスが生まれる。
AIが引き起こす分野を取り巻く制度的なインフラは概してほとんど精巧ではないため、今後AIシステムのより広範な制度化に支障をきたす可能性がある。
論文 参考訳(メタデータ) (2021-08-18T14:06:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Progressing Towards Responsible AI [2.191505742658975]
学会と人工知能に関する天文台(OSAI)は、AI4EUプロジェクトから発展した。
OSAIは、AI(倫理的、法的、社会的、経済的、文化的)の幅広い問題に対するリフレクションを刺激することを目指している
論文 参考訳(メタデータ) (2020-08-11T09:46:00Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。