論文の概要: Foundations for the Future: Institution building for the purpose of
Artificial Intelligence governance
- arxiv url: http://arxiv.org/abs/2110.09238v1
- Date: Fri, 1 Oct 2021 10:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-12 19:47:37.897944
- Title: Foundations for the Future: Institution building for the purpose of
Artificial Intelligence governance
- Title(参考訳): 未来のための財団:人工知能ガバナンスのための機関ビル
- Authors: Charlotte Stix
- Abstract要約: 人工知能(AI)のガバナンスの取り組みは、ますます具体的になりつつある。
新しい機関は、国内および国際レベルで設置される必要がある。
本稿では、こうした機関の青写真をスケッチし、将来のAIガバナンス機関の3つの重要な構成要素を詳細に調査する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Governance efforts for artificial intelligence (AI) are taking on
increasingly more concrete forms, drawing on a variety of approaches and
instruments from hard regulation to standardisation efforts, aimed at
mitigating challenges from high-risk AI systems. To implement these and other
efforts, new institutions will need to be established on a national and
international level. This paper sketches a blueprint of such institutions, and
conducts in-depth investigations of three key components of any future AI
governance institutions, exploring benefits and associated drawbacks: (1)
purpose, relating to the institution's overall goals and scope of work or
mandate; (2) geography, relating to questions of participation and the reach of
jurisdiction; and (3) capacity, the infrastructural and human make-up of the
institution. Subsequently, the paper highlights noteworthy aspects of various
institutional roles specifically around questions of institutional purpose, and
frames what these could look like in practice, by placing these debates in a
European context and proposing different iterations of a European AI Agency.
Finally, conclusions and future research directions are proposed.
- Abstract(参考訳): 人工知能(ai)のガバナンスの取り組みは、ますます具体的になりつつあり、厳しい規制から標準化まで、リスクの高いaiシステムからの課題を軽減しようとする様々なアプローチや手段を描いている。
これらとその他の取り組みを実施するためには、国内外のレベルで新たな機関を設立する必要がある。
本稿では,これらの機関の青写真をスケッチし,将来のAIガバナンス機関の3つの重要な構成要素を詳細に調査し,そのメリットと欠点を探求する。(1) 機関の全体的な目標と作業範囲,あるいは委任事項に関する目的,(2) 参加や管轄範囲に関する地理,(3) 施設のインフラ・人的構成に関する能力,である。
その後、欧州の文脈にこれらの議論を置き、欧州のai機関のさまざまなイテレーションを提案することで、制度目的に関する質問に関する様々な機関の役割の注目すべき側面を強調する。
最後に、結論と今後の研究方向を提案する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - A University Framework for the Responsible use of Generative AI in Research [0.0]
ジェネレーティブ人工知能(Generative Artificial Intelligence、ジェネレーティブAI)は、研究の完全性のための機会とリスクを兼ね備えている。
組織が生成AIの責任ある利用を促進・促進するための枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-30T04:00:15Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Automating the Analysis of Institutional Design in International
Agreements [52.77024349608834]
開発ツールは、法的文書の収集、機関文法による注釈付け、グラフ解析による正式な制度設計の探索などの技術を利用している。
2003年、ユネスコ無形文化財保護条約(UNESCO Convention for the Safeguarding of the Intangible Cultural Heritage)が採択された。
論文 参考訳(メタデータ) (2023-05-26T08:57:11Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - A Framework for Understanding AI-Induced Field Change: How AI
Technologies are Legitimized and Institutionalized [0.0]
本稿では,AIによるフィールド変化を分析し,理解するための概念的枠組みを提案する。
新たなAIエージェントを新しい分野や既存の分野に導入することで、アルゴリズムが組織や機関を(再)形成するダイナミクスが生まれる。
AIが引き起こす分野を取り巻く制度的なインフラは概してほとんど精巧ではないため、今後AIシステムのより広範な制度化に支障をきたす可能性がある。
論文 参考訳(メタデータ) (2021-08-18T14:06:08Z) - Progressing Towards Responsible AI [2.191505742658975]
学会と人工知能に関する天文台(OSAI)は、AI4EUプロジェクトから発展した。
OSAIは、AI(倫理的、法的、社会的、経済的、文化的)の幅広い問題に対するリフレクションを刺激することを目指している
論文 参考訳(メタデータ) (2020-08-11T09:46:00Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。