論文の概要: Kantian Deontology Meets AI Alignment: Towards Morally Grounded Fairness
Metrics
- arxiv url: http://arxiv.org/abs/2311.05227v2
- Date: Mon, 26 Feb 2024 21:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 22:00:58.184464
- Title: Kantian Deontology Meets AI Alignment: Towards Morally Grounded Fairness
Metrics
- Title(参考訳): kantian deontologyがaiアライメントを満たす - 道徳的根拠のある公平性メトリクスに向けて
- Authors: Carlos Mougan, Joshua Brand
- Abstract要約: ディオントロジー倫理は、特にイマヌエル・カント(英語版)によって理解され、義務と原則の重要性を強調する道徳的枠組みを提供する。
本稿では,AIアライメント分野の一部として,公正度測定におけるカンティアン・デオントロジー・フレームワークの適合性について検討する。
- 参考スコア(独自算出の注目度): 4.373803477995854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deontological ethics, specifically understood through Immanuel Kant, provides
a moral framework that emphasizes the importance of duties and principles,
rather than the consequences of action. Understanding that despite the
prominence of deontology, it is currently an overlooked approach in fairness
metrics, this paper explores the compatibility of a Kantian deontological
framework in fairness metrics, part of the AI alignment field. We revisit
Kant's critique of utilitarianism, which is the primary approach in AI fairness
metrics and argue that fairness principles should align with the Kantian
deontological framework. By integrating Kantian ethics into AI alignment, we
not only bring in a widely-accepted prominent moral theory but also strive for
a more morally grounded AI landscape that better balances outcomes and
procedures in pursuit of fairness and justice.
- Abstract(参考訳): イマニュエル・カント(immanuel kant)によって特に理解されたデオントロジー倫理(deontological ethics)は、行動の結果よりも義務と原則の重要性を強調する道徳的枠組みを提供する。
この論文は、非オントロジーが卓越しているにもかかわらず、現在見過ごされているフェアネス指標のアプローチであり、AIアライメント分野の一部であるフェアネス指標におけるカンチアンデオントロジーフレームワークの互換性について考察する。
我々は、AI公正度測定における主要なアプローチである実用主義に対するカントの批判を再考し、公正性原理はカンティアン・デオントロジーの枠組みと一致すべきであると主張している。
カント倫理をAIアライメントに組み込むことで、広く受け入れられた顕著な道徳理論をもたらすだけでなく、公正さと正義の追求において結果と手続きのバランスを良くする、より道徳的に根ざしたAIの展望にも取り組みます。
関連論文リスト
- Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions [1.864621482724548]
我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Designing a Future Worth Wanting: Applying Virtue Ethics to HCI [11.117357750374035]
倫理に関する3つの主要なアプローチのうち、美徳倫理はデジタル時代の道徳的ガイドとして一意に適している。
それは(デオントロジーのような)規則や結果(連続主義)よりもむしろ、道徳的エージェントの特質、状況、行動に焦点を当てている。
論文 参考訳(メタデータ) (2022-04-05T14:18:35Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - An Impact Model of AI on the Principles of Justice: Encompassing the
Autonomous Levels of AI Legal Reasoning [0.0]
既存のおよび将来の法的活動と司法構造へのAIの注入は、正義の中核的な原則と慎重に一致させることによって行われる必要がある、と論じられている。
AI法理推論の自律性レベル(LoA)における正義の原則を調べることで、AIの開発とデプロイの取り組みに根ざした緊張が進行中である、という主張がなされている。
論文 参考訳(メタデータ) (2020-08-26T22:56:41Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。