論文の概要: Principles for Macro Ethics of Sociotechnical Systems: Taxonomy and
Future Directions
- arxiv url: http://arxiv.org/abs/2208.12616v1
- Date: Fri, 12 Aug 2022 08:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:45:50.017332
- Title: Principles for Macro Ethics of Sociotechnical Systems: Taxonomy and
Future Directions
- Title(参考訳): 社会技術システムのマクロ倫理の原理:分類学と今後の方向性
- Authors: Jessica Woodgate and Nirav Ajmeri
- Abstract要約: この研究は、社会技術システムのガバナンスにおいて運用できる規範的倫理原則の分類法を開発する。
本稿では,各原則がこれまで運用されてきた方法を述べるとともに,STSのマクロ倫理に原則の運用方法を適用する方法を提案する。
- 参考スコア(独自算出の注目度): 1.8275108630751837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid adoption of artificial intelligence (AI) necessitates careful
analysis of its ethical implications. In addressing ethics and fairness
implications, it is important to examine the whole range of ethically relevant
features rather than looking at individual agents alone. This can be
accomplished by shifting perspective to the systems in which agents are
embedded, which is encapsulated in the macro ethics of sociotechnical systems
(STS). Through the lens of macro ethics, the governance of systems - which is
where participants try to promote outcomes and norms which reflect their values
- is key. However, multiple-user social dilemmas arise in an STS when
stakeholders of the STS have different value preferences or when norms in the
STS conflict. To develop equitable governance which meets the needs of
different stakeholders, and resolve these dilemmas in satisfactory ways with a
higher goal of fairness, we need to integrate a variety of normative ethical
principles in reasoning. Normative ethical principles are understood as
operationalizable rules inferred from philosophical theories. A taxonomy of
ethical principles is thus beneficial to enable practitioners to utilise them
in reasoning.
This work develops a taxonomy of normative ethical principles which can be
operationalized in the governance of STS. We identify an array of ethical
principles, with 25 nodes on the taxonomy tree. We describe the ways in which
each principle has previously been operationalized, and suggest how the
operationalization of principles may be applied to the macro ethics of STS. We
further explain potential difficulties that may arise with each principle. We
envision this taxonomy will facilitate the development of methodologies to
incorporate ethical principles in reasoning capacities for governing equitable
STS.
- Abstract(参考訳): 人工知能(AI)の急速な普及は、その倫理的意味を慎重に分析する必要がある。
倫理的・公正な含意に対処するためには、個々のエージェントのみを見るのではなく、倫理的に関係のある全ての特徴を検討することが重要である。
これは、エージェントが埋め込まれたシステムに視点を移し、社会技術システムのマクロ倫理(STS)にカプセル化することで達成できる。
マクロ倫理のレンズを通して、参加者が自身の価値を反映した成果や規範を促進しようとするシステムのガバナンスが重要である。
しかし、STSの利害関係者が異なる価値嗜好を持つ場合や、STSにおける規範が対立する場合には、複数のユーザによる社会的ジレンマが発生する。
異なる利害関係者のニーズを満たす公平なガバナンスを開発し、公平性のより高い目標を満足できる方法でこれらのジレンマを解決するためには、推論において様々な規範的倫理原則を統合する必要がある。
規範的倫理原理は、哲学理論から推測される運用可能な規則として理解される。
したがって、倫理的原則の分類は、実践者が推論でそれらを利用できるようにすることに有益である。
この研究は、STSのガバナンスで運用できる規範的倫理原則の分類法を開発する。
我々は、分類木上に25のノードを持つ一連の倫理的原則を特定する。
本稿では,各原則の運用方法を述べるとともに,原則の運用がstsのマクロ倫理にどのように適用されるかを提案する。
それぞれの原則で生じる可能性のある潜在的な困難について、さらに説明します。
我々は、この分類が、公平なSTSを管理する能力の推論に倫理的原則を取り入れるための方法論の開発を促進することを期待している。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Different Faces of AI Ethics Across the World: A
Principle-Implementation Gap Analysis [12.031113181911627]
人工知能(AI)は、医療、宇宙探査、銀行、金融といった分野で、私たちの日常生活を変えつつある。
こうしたAIの急速な進歩は、AI技術が社会に与える影響に対する関心を高めている。
いくつかの倫理的原則は政府、国家、国際機関によって公表されている。
これらの原則は、AIの倫理的開発、デプロイメント、ガバナンスを導くための、ハイレベルな規範を概説している。
論文 参考訳(メタデータ) (2022-05-12T22:41:08Z) - Software Engineering for Responsible AI: An Empirical Study and
Operationalised Patterns [20.747681252352464]
具体的なパターンの形でAI倫理原則を運用可能なテンプレートを提案する。
これらのパターンは、責任あるAIシステムの開発を容易にする具体的な、運用されたガイダンスを提供する。
論文 参考訳(メタデータ) (2021-11-18T02:18:27Z) - Ethics of AI: A Systematic Literature Review of Principles and
Challenges [3.7129018407842445]
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
論文 参考訳(メタデータ) (2021-09-12T15:33:43Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。