論文の概要: AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI
- arxiv url: http://arxiv.org/abs/2106.00326v1
- Date: Tue, 1 Jun 2021 09:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 03:49:22.569232
- Title: AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI
- Title(参考訳): デザインによるAI倫理。
AIの倫理的設計原則の重要性に対する公的な認識の評価
- Authors: Kimon Kieslich, Birte Keller, Christopher Starke
- Abstract要約: 倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the immense societal importance of ethically designing artificial
intelligence (AI), little research on the public perceptions of ethical AI
principles exists. This becomes even more striking when considering that
ethical AI development has the aim to be human-centric and of benefit for the
whole society. In this study, we investigate how ethical principles
(explainability, fairness, security, accountability, accuracy, privacy, machine
autonomy) are weighted in comparison to each other. This is especially
important, since simultaneously considering ethical principles is not only
costly, but sometimes even impossible, as developers must make specific
trade-off decisions. In this paper, we give first answers on the relative
importance of ethical principles given a specific use case - the use of AI in
tax fraud detection. The results of a large conjoint survey (n=1099) suggest
that, by and large, German respondents found the ethical principles equally
important. However, subsequent cluster analysis shows that different preference
models for ethically designed systems exist among the German population. These
clusters substantially differ not only in the preferred attributes, but also in
the importance level of the attributes themselves. We further describe how
these groups are constituted in terms of sociodemographics as well as opinions
on AI. Societal implications as well as design challenges are discussed.
- Abstract(参考訳): 人工知能(AI)を倫理的に設計する上での社会的重要性にもかかわらず、倫理的AI原則に対する大衆の認識に関する研究はほとんど存在しない。
倫理的AI開発が人間中心で、社会全体に利益をもたらすという目標を持っているとすれば、これはさらに顕著になる。
本研究では, 倫理的原則(説明可能性, 公平性, セキュリティ, 説明責任, 正確性, プライバシー, マシン自律性)が相互に重み付けされているかを検討する。
これは特に重要であり、倫理的原則を同時に考慮することはコストがかかるだけでなく、開発者が特定のトレードオフの決定を下さなければならないため、時には不可能である。
本稿では,税法違反検出におけるAIの利用という,特定のユースケースを考慮に入れた倫理原則の相対的重要性について,最初の回答を与える。
大規模なコンジョイント調査 (n=1099) の結果は、ドイツの回答者が概ね、倫理的原則が同様に重要であることを示唆している。
しかし、その後のクラスター分析により、倫理的に設計されたシステムに対する異なる選好モデルが存在することが判明した。
これらのクラスタは、望ましい属性だけでなく、属性自体の重要性も実質的に異なる。
さらに、これらのグループは、社会デマログラフィーやAIに関する意見の観点から構成されているかについても述べる。
社会的な意味と設計上の課題について論じる。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Ethics of AI: A Systematic Literature Review of Principles and
Challenges [3.7129018407842445]
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
論文 参考訳(メタデータ) (2021-09-12T15:33:43Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。