論文の概要: Ethics of AI: A Systematic Literature Review of Principles and
Challenges
- arxiv url: http://arxiv.org/abs/2109.07906v1
- Date: Sun, 12 Sep 2021 15:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-18 13:16:33.016058
- Title: Ethics of AI: A Systematic Literature Review of Principles and
Challenges
- Title(参考訳): AIの倫理: 原則と課題の体系的な文献レビュー
- Authors: Arif Ali Khan, Sher Badshah, Peng Liang, Bilal Khan, Muhammad Waseem,
Mahmood Niazi, Muhammad Azeem Akbar
- Abstract要約: 透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
- 参考スコア(独自算出の注目度): 3.7129018407842445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ethics in AI becomes a global topic of interest for both policymakers and
academic researchers. In the last few years, various research organizations,
lawyers, think tankers and regulatory bodies get involved in developing AI
ethics guidelines and principles. However, there is still debate about the
implications of these principles. We conducted a systematic literature review
(SLR) study to investigate the agreement on the significance of AI principles
and identify the challenging factors that could negatively impact the adoption
of AI ethics principles. The results reveal that the global convergence set
consists of 22 ethical principles and 15 challenges. Transparency, privacy,
accountability and fairness are identified as the most common AI ethics
principles. Similarly, lack of ethical knowledge and vague principles are
reported as the significant challenges for considering ethics in AI. The
findings of this study are the preliminary inputs for proposing a maturity
model that assess the ethical capabilities of AI systems and provide best
practices for further improvements.
- Abstract(参考訳): AIにおける倫理は、政策立案者と学術研究者の両方にとって世界的な関心事となっている。
ここ数年、さまざまな研究組織、弁護士、シンクタンク、規制機関がAI倫理ガイドラインや原則の開発に関与している。
しかし、これらの原則の意義についてはまだ議論がある。
我々は、AI原則の意義に関する合意を調査し、AI倫理原則の採用に悪影響を及ぼす可能性のある困難な要因を特定するために、体系的な文献レビュー(SLR)研究を行った。
その結果、グローバル収束セットは22の倫理原則と15の課題からなることが明らかになった。
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
同様に、倫理的知識の欠如と曖昧な原則が、AIにおける倫理を考える上で重要な課題として報告されている。
本研究は,AIシステムの倫理的能力を評価し,さらなる改善のためのベストプラクティスを提供する成熟度モデルを提案するための予備的インプットである。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions [1.864621482724548]
我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Different Faces of AI Ethics Across the World: A
Principle-Implementation Gap Analysis [12.031113181911627]
人工知能(AI)は、医療、宇宙探査、銀行、金融といった分野で、私たちの日常生活を変えつつある。
こうしたAIの急速な進歩は、AI技術が社会に与える影響に対する関心を高めている。
いくつかの倫理的原則は政府、国家、国際機関によって公表されている。
これらの原則は、AIの倫理的開発、デプロイメント、ガバナンスを導くための、ハイレベルな規範を概説している。
論文 参考訳(メタデータ) (2022-05-12T22:41:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。