論文の概要: Montreal AI Ethics Institute's Response to Scotland's AI Strategy
- arxiv url: http://arxiv.org/abs/2006.06300v1
- Date: Thu, 11 Jun 2020 10:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 00:49:32.949410
- Title: Montreal AI Ethics Institute's Response to Scotland's AI Strategy
- Title(参考訳): モントリオールAI倫理研究所がスコットランドのAI戦略に反応
- Authors: Abhishek Gupta (Montreal AI Ethics Institute and Microsoft)
- Abstract要約: 2020年1月と2月、スコットランド政府は人工知能(AI)戦略に関する2つの文書を公開した。
モントリオールAI倫理研究所(MAIEI)はこれらの文書をレビューし、2020年6月4日に回答を発表した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In January and February 2020, the Scottish Government released two documents
for review by the public regarding their artificial intelligence (AI) strategy.
The Montreal AI Ethics Institute (MAIEI) reviewed these documents and published
a response on 4 June 2020. MAIEI's response examines several questions that
touch on the proposed definition of AI; the people-centered nature of the
strategy; considerations to ensure that everyone benefits from AI; the
strategy's overarching vision; Scotland's AI ecosystem; the proposed strategic
themes; and how to grow public confidence in AI by building responsible and
ethical systems.
In addition to examining the points above, MAIEI suggests that the strategy
be extended to include considerations on biometric data and how that will be
processed and used in the context of AI. It also highlights the importance of
tackling head-on the inherently stochastic nature of deep learning systems and
developing concrete guidelines to ensure that these systems are built
responsibly and ethically, particularly as machine learning becomes more
accessible. Finally, it concludes that any national AI strategy must clearly
address the measurements of success in regards to the strategy's stated goals
and vision to ensure that they are interpreted and applied consistently. To do
this, there must be inclusion and transparency between those building the
systems and those using them in their work.
- Abstract(参考訳): 2020年1月と2月、スコットランド政府は人工知能(AI)戦略に関する2つの文書を公開した。
モントリオールAI倫理研究所(MAIEI)はこれらの文書をレビューし、2020年6月4日に回答を発表した。
MaIEI氏の回答は、提案されたAIの定義、人中心の戦略の性質、すべての人がAIから恩恵を受けることを保証するための考慮、戦略の全体的ビジョン、スコットランドのAIエコシステム、提案された戦略的テーマ、責任と倫理的なシステムを構築することでAIに対する大衆の信頼を高める方法について、いくつかの質問を調査している。
上記のポイントの検証に加えて、maiei氏はこの戦略を拡張してバイオメトリックデータと、それがaiのコンテキストでどのように処理され使用されるかを検討することを提案している。
また、深層学習システムの本質的に確率的な性質に取り組むことの重要性を強調し、特に機械学習がよりアクセスしやすくなれば、これらのシステムが責任を持って倫理的に構築されることを保証するための具体的なガイドラインを開発する。
最後に、あらゆる国家AI戦略は、戦略が一貫して解釈され、適用されることを保証するために、戦略の指示された目標とビジョンに関する成功の測定に明確に対処する必要があると結論付けている。
そのためには、システム構築者とそれを使用する人の間には、包摂性と透明性が必要です。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。