論文の概要: AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers
- arxiv url: http://arxiv.org/abs/2207.01493v2
- Date: Tue, 15 Nov 2022 10:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:39:01.556306
- Title: AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers
- Title(参考訳): AI倫理: 実践者と議員の視点に関する実証的研究
- Authors: Arif Ali Khan, Muhammad Azeem Akbar, Mahdi Fahmideh, Peng Liang,
Muhammad Waseem, Aakash Ahmad, Mahmood Niazi, Pekka Abrahamsson
- Abstract要約: 透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
- 参考スコア(独自算出の注目度): 8.82540441326446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) solutions and technologies are being
increasingly adopted in smart systems context, however, such technologies are
continuously concerned with ethical uncertainties. Various guidelines,
principles, and regulatory frameworks are designed to ensure that AI
technologies bring ethical well-being. However, the implications of AI ethics
principles and guidelines are still being debated. To further explore the
significance of AI ethics principles and relevant challenges, we conducted a
survey of 99 representative AI practitioners and lawmakers (e.g., AI engineers,
lawyers) from twenty countries across five continents. To the best of our
knowledge, this is the first empirical study that encapsulates the perceptions
of two different types of population (AI practitioners and lawmakers) and the
study findings confirm that transparency, accountability, and privacy are the
most critical AI ethics principles. On the other hand, lack of ethical
knowledge, no legal frameworks, and lacking monitoring bodies are found the
most common AI ethics challenges. The impact analysis of the challenges across
AI ethics principles reveals that conflict in practice is a highly severe
challenge. Moreover, the perceptions of practitioners and lawmakers are
statistically correlated with significant differences for particular principles
(e.g. fairness, freedom) and challenges (e.g. lacking monitoring bodies,
machine distortion). Our findings stimulate further research, especially
empowering existing capability maturity models to support the development and
quality assessment of ethics-aware AI systems.
- Abstract(参考訳): 人工知能(AI)ソリューションや技術は、スマートシステムにおいてますます採用されているが、そのような技術は、倫理的不確実性に継続的に関心を寄せている。
さまざまなガイドライン、原則、規制フレームワークは、ai技術が倫理的な幸福をもたらすように設計されている。
しかし、AI倫理の原則とガイドラインの影響はまだ議論されている。
我々は、AI倫理の原則と関連する課題の重要性をさらに調査するため、5大陸20カ国から99人の代表的AI実践者および議員(例えば、AIエンジニア、弁護士)を対象に調査を行った。
私たちの知る限りでは、これは2つの異なるタイプの集団(AI実践者と立法者)の認識をカプセル化した初めての実証的研究であり、この調査結果は透明性、説明責任、プライバシが最も重要なAI倫理原則であることを証明している。
一方、倫理的知識の欠如、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
AI倫理原則にまたがる課題のインパクト分析は、実践上の対立が非常に深刻な課題であることを示している。
さらに、実践者や議員の認識は、特定の原則(公正、自由など)や課題(監視対象の欠如、機械の歪みなど)に対して有意な差と統計的に相関している。
我々の発見はさらなる研究を刺激し、特に、倫理に配慮したAIシステムの開発と品質評価を支援するために、既存の能力成熟度モデルを強化する。
関連論文リスト
- Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Ethics in the Age of AI: An Analysis of AI Practitioners' Awareness and
Challenges [11.656193349991609]
我々は,AI実践者のAI倫理に対する意識と倫理を取り入れた課題を理解することを目的とした調査を行った。
この結果から,AI実践者の大多数が,AI倫理の概念に精通していることが示唆された。
フォーマルな教育・訓練は、実践者がAI倫理を取り入れるように準備するのに幾らか役立つと考えられていた。
論文 参考訳(メタデータ) (2023-07-14T02:50:46Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Ethics of AI: A Systematic Literature Review of Principles and
Challenges [3.7129018407842445]
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
論文 参考訳(メタデータ) (2021-09-12T15:33:43Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。