論文の概要: Deontological Ethics By Monotonicity Shape Constraints
- arxiv url: http://arxiv.org/abs/2001.11990v2
- Date: Fri, 13 Mar 2020 00:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 05:34:30.068199
- Title: Deontological Ethics By Monotonicity Shape Constraints
- Title(参考訳): 単調な形状制約によるデオントロジー倫理
- Authors: Serena Wang and Maya Gupta
- Abstract要約: 現代の機械学習システムでは、一般的な非オントロジ的倫理原則や社会規範に違反することがいかに容易かを示す。
このような倫理的原則を機械学習モデルに組み込むためには,モデルが関連する入力に対してのみ正に応答することを制約する形状制約を加える必要がある。
- 参考スコア(独自算出の注目度): 6.117084972237769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate how easy it is for modern machine-learned systems to violate
common deontological ethical principles and social norms such as "favor the
less fortunate," and "do not penalize good attributes." We propose that in some
cases such ethical principles can be incorporated into a machine-learned model
by adding shape constraints that constrain the model to respond only positively
to relevant inputs. We analyze the relationship between these deontological
constraints that act on individuals and the consequentialist group-based
fairness goals of one-sided statistical parity and equal opportunity. This
strategy works with sensitive attributes that are Boolean or real-valued such
as income and age, and can help produce more responsible and trustworthy AI.
- Abstract(参考訳): 現代の機械学習システムにおいて、「幸運を損なう」ことや「良い属性を罰しない」といった共通のデオントロジー的倫理原則や社会的規範を破ることがいかに容易であるかを実証する。
このような倫理的原則を機械学習モデルに組み込むためには,モデルが関連する入力に対して正に応答することを制約する形状制約を加える必要がある。
我々は、個人に作用するこれらの非オントロジー的制約と、一方的な統計的パリティと平等機会の連続的なグループに基づく公正度目標との関係を分析する。
この戦略は、収入や年齢といったブーリアン的あるいは実価値の高い属性で機能し、より責任と信頼性の高いAIを生み出すのに役立つ。
関連論文リスト
- Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Monotonicity for AI ethics and society: An empirical study of the
monotonic neural additive model in criminology, education, health care, and
finance [0.8566457170664925]
モノトニック性の公理は 犯罪学、教育、医療、金融など
我々の研究は、AI倫理、説明可能なAI(XAI)、人間とコンピュータの相互作用(HCI)のインターフェースにおける学際的研究に貢献する。
論文 参考訳(メタデータ) (2023-01-17T18:21:31Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。