論文の概要: Deontological Ethics By Monotonicity Shape Constraints
- arxiv url: http://arxiv.org/abs/2001.11990v2
- Date: Fri, 13 Mar 2020 00:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 05:34:30.068199
- Title: Deontological Ethics By Monotonicity Shape Constraints
- Title(参考訳): 単調な形状制約によるデオントロジー倫理
- Authors: Serena Wang and Maya Gupta
- Abstract要約: 現代の機械学習システムでは、一般的な非オントロジ的倫理原則や社会規範に違反することがいかに容易かを示す。
このような倫理的原則を機械学習モデルに組み込むためには,モデルが関連する入力に対してのみ正に応答することを制約する形状制約を加える必要がある。
- 参考スコア(独自算出の注目度): 6.117084972237769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate how easy it is for modern machine-learned systems to violate
common deontological ethical principles and social norms such as "favor the
less fortunate," and "do not penalize good attributes." We propose that in some
cases such ethical principles can be incorporated into a machine-learned model
by adding shape constraints that constrain the model to respond only positively
to relevant inputs. We analyze the relationship between these deontological
constraints that act on individuals and the consequentialist group-based
fairness goals of one-sided statistical parity and equal opportunity. This
strategy works with sensitive attributes that are Boolean or real-valued such
as income and age, and can help produce more responsible and trustworthy AI.
- Abstract(参考訳): 現代の機械学習システムにおいて、「幸運を損なう」ことや「良い属性を罰しない」といった共通のデオントロジー的倫理原則や社会的規範を破ることがいかに容易であるかを実証する。
このような倫理的原則を機械学習モデルに組み込むためには,モデルが関連する入力に対して正に応答することを制約する形状制約を加える必要がある。
我々は、個人に作用するこれらの非オントロジー的制約と、一方的な統計的パリティと平等機会の連続的なグループに基づく公正度目標との関係を分析する。
この戦略は、収入や年齢といったブーリアン的あるいは実価値の高い属性で機能し、より責任と信頼性の高いAIを生み出すのに役立つ。
関連論文リスト
- Learning Machine Morality through Experience and Interaction [4.2050490361120465]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Monotonicity for AI ethics and society: An empirical study of the
monotonic neural additive model in criminology, education, health care, and
finance [0.8566457170664925]
モノトニック性の公理は 犯罪学、教育、医療、金融など
我々の研究は、AI倫理、説明可能なAI(XAI)、人間とコンピュータの相互作用(HCI)のインターフェースにおける学際的研究に貢献する。
論文 参考訳(メタデータ) (2023-01-17T18:21:31Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。