論文の概要: Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions
- arxiv url: http://arxiv.org/abs/2208.12616v4
- Date: Tue, 10 Sep 2024 19:44:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 22:28:06.373320
- Title: Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions
- Title(参考訳): 責任あるAIシステムのためのマクロ倫理原則:分類学と今後の方向性
- Authors: Jessica Woodgate, Nirav Ajmeri,
- Abstract要約: 我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
- 参考スコア(独自算出の注目度): 1.864621482724548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible AI must be able to make or support decisions that consider human values and can be justified by human morals. Accommodating values and morals in responsible decision making is supported by adopting a perspective of macro ethics, which views ethics through a holistic lens incorporating social context. Normative ethical principles inferred from philosophy can be used to methodically reason about ethics and make ethical judgements in specific contexts. Operationalising normative ethical principles thus promotes responsible reasoning under the perspective of macro ethics. We survey AI and computer science literature and develop a taxonomy of 21 normative ethical principles which can be operationalised in AI. We describe how each principle has previously been operationalised, highlighting key themes that AI practitioners seeking to implement ethical principles should be aware of. We envision that this taxonomy will facilitate the development of methodologies to incorporate normative ethical principles in reasoning capacities of responsible AI systems.
- Abstract(参考訳): 責任あるAIは、人間の価値を考慮し、人間の道徳によって正当化される決定を下すか、または支持できなければならない。
責任ある意思決定における価値とモラルの調整は、社会的文脈を取り入れた全体論的レンズを通して倫理を考察するマクロ倫理の観点を採用することで支持される。
哲学から推測される規範的倫理原則は、倫理について体系的に推論し、特定の文脈で倫理的判断を行うために用いられる。
規範的倫理原則の運用は、マクロ倫理の観点から責任ある推論を促進する。
我々は、AIとコンピュータサイエンスの文献を調査し、AIで運用可能な21の規範的倫理原則の分類学を開発する。
それぞれの原則がこれまでどのように運用されてきたかを説明し、倫理的原則を実装しようとするAI実践者が認識すべき重要なテーマを強調します。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定している。
関連論文リスト
- Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Kantian Deontology Meets AI Alignment: Towards Morally Grounded Fairness
Metrics [4.373803477995854]
ディオントロジー倫理は、特にイマヌエル・カント(英語版)によって理解され、義務と原則の重要性を強調する道徳的枠組みを提供する。
本稿では,AIアライメント分野の一部として,公正度測定におけるカンティアン・デオントロジー・フレームワークの適合性について検討する。
論文 参考訳(メタデータ) (2023-11-09T09:16:02Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Different Faces of AI Ethics Across the World: A
Principle-Implementation Gap Analysis [12.031113181911627]
人工知能(AI)は、医療、宇宙探査、銀行、金融といった分野で、私たちの日常生活を変えつつある。
こうしたAIの急速な進歩は、AI技術が社会に与える影響に対する関心を高めている。
いくつかの倫理的原則は政府、国家、国際機関によって公表されている。
これらの原則は、AIの倫理的開発、デプロイメント、ガバナンスを導くための、ハイレベルな規範を概説している。
論文 参考訳(メタデータ) (2022-05-12T22:41:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Ethics of AI: A Systematic Literature Review of Principles and
Challenges [3.7129018407842445]
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
論文 参考訳(メタデータ) (2021-09-12T15:33:43Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。