論文の概要: Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI
- arxiv url: http://arxiv.org/abs/2302.12149v1
- Date: Thu, 23 Feb 2023 16:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 14:31:01.715751
- Title: Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI
- Title(参考訳): バイアスとコンプライアンスを超えて:aiにおける個別機関と複数の倫理に向けて
- Authors: Thomas Krendl Gilbert, Megan Welle Brozek, Andrew Brozek
- Abstract要約: データをラベル付けする方法は、AIの振る舞いに不可欠な役割を担っている、と私たちは主張する。
本稿では,複数の値と個々人の表現の自由を許容する代替経路を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI ethics is an emerging field with multiple, competing narratives about how
to best solve the problem of building human values into machines. Two major
approaches are focused on bias and compliance, respectively. But neither of
these ideas fully encompasses ethics: using moral principles to decide how to
act in a particular situation. Our method posits that the way data is labeled
plays an essential role in the way AI behaves, and therefore in the ethics of
machines themselves. The argument combines a fundamental insight from ethics
(i.e. that ethics is about values) with our practical experience building and
scaling machine learning systems. We want to build AI that is actually ethical
by first addressing foundational concerns: how to build good systems, how to
define what is good in relation to system architecture, and who should provide
that definition.
Building ethical AI creates a foundation of trust between a company and the
users of that platform. But this trust is unjustified unless users experience
the direct value of ethical AI. Until users have real control over how
algorithms behave, something is missing in current AI solutions. This causes
massive distrust in AI, and apathy towards AI ethics solutions. The scope of
this paper is to propose an alternative path that allows for the plurality of
values and the freedom of individual expression. Both are essential for
realizing true moral character.
- Abstract(参考訳): AI倫理は、人間の価値を機械に組み込むという問題を解決する方法について、複数の競合する物語を持つ新興分野である。
2つの主要なアプローチは、それぞれバイアスとコンプライアンスに焦点を当てている。
しかし、これらのアイデアはいずれも倫理を完全に包含していない:道徳的原則を使って特定の状況でどのように行動するかを決定する。
我々の手法は、データがラベル付けされる方法がAIの振る舞いに不可欠な役割を担っていることを示唆している。
この議論は、倫理(すなわち倫理は価値に関するものである)からの基本的な洞察と、機械学習システムの構築とスケーリングに関する実践的な経験を組み合わせる。
私たちはまず、優れたシステムを構築する方法、システムアーキテクチャに関して何が良いかを定義する方法、そして誰がその定義を提供するべきかという、基礎的な懸念に対処することで、実際に倫理的なaiを構築したいと考えています。
倫理的AIの構築は、企業とプラットフォームのユーザの間の信頼の基盤を生み出します。
しかし、ユーザーが倫理的AIの直接的な価値を経験しない限り、この信頼は不当である。
ユーザーがアルゴリズムの動作を実際に制御するまで、現在のAIソリューションには何かが欠けている。
これはAIに対する大きな不信と、AI倫理ソリューションに対する無関心を引き起こす。
本研究の目的は,複数の値と個々人の表現の自由を許容する代替経路を提案することである。
どちらも真の道徳的性格の実現に不可欠である。
関連論文リスト
- Why should we ever automate moral decision making? [30.428729272730727]
AIが重大な道徳的意味を持つ決定に関与している場合、懸念が生じる。
道徳的推論は広く受け入れられている枠組みを欠いている。
もう一つのアプローチは、人間の道徳的決定からAIを学ぶことである。
論文 参考訳(メタデータ) (2024-07-10T13:59:22Z) - Towards a Feminist Metaethics of AI [0.0]
これらの不足は、AIのフェミニスト的メタ倫理に関する研究アジェンダを開発することで緩和できると私は主張する。
この視点をAIの文脈に適用することにより、AIのフェミニスト的メタ倫理は、(i)AI倫理における理論と行動の間の連続性、(ii)AI倫理の現実的な影響、(iii)AI倫理に関わる人々の役割とプロファイル、(iv)文脈、感情、物語に注意を払う方法を通じて、AIが権力関係に与える影響を調べることを提案します。
論文 参考訳(メタデータ) (2023-11-10T13:26:45Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - AI Ethics Issues in Real World: Evidence from AI Incident Database [0.6091702876917279]
インテリジェントなサービスロボット、言語/ビジョンモデル、そして自動運転がリードする、AIの非倫理的利用をよく目にする13のアプリケーション領域を特定します。
倫理的問題は、不適切な使用や人種的差別から、身体的安全と不公平なアルゴリズムまで、8つの異なる形態で現れる。
論文 参考訳(メタデータ) (2022-06-15T16:25:57Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - From the Ground Truth Up: Doing AI Ethics from Practice to Principles [0.0]
最近のAI倫理は、抽象原則を実践に下方へ適用することに焦点を当てている。
この論文は反対方向に動く。
倫理的な洞察は、具体的な人間の問題に取り組んでいるAI設計者の生きた経験から生まれる。
論文 参考訳(メタデータ) (2022-01-05T15:33:33Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。