論文の概要: Designing for Human Rights in AI
- arxiv url: http://arxiv.org/abs/2005.04949v2
- Date: Mon, 6 Jul 2020 17:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 19:43:33.999637
- Title: Designing for Human Rights in AI
- Title(参考訳): AIにおける人権のための設計
- Authors: Evgeni Aizenberg and Jeroen van den Hoven
- Abstract要約: AIシステムは、エビデンス駆動で効率的な決定を下すのに役立ちます。
これらの技術開発が人々の基本的人権と一致していることは明らかになっている。
これらの複雑な社会倫理問題に対する技術的な解決策は、しばしば社会的文脈の実証的研究なしで開発される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the age of big data, companies and governments are increasingly using
algorithms to inform hiring decisions, employee management, policing, credit
scoring, insurance pricing, and many more aspects of our lives. AI systems can
help us make evidence-driven, efficient decisions, but can also confront us
with unjustified, discriminatory decisions wrongly assumed to be accurate
because they are made automatically and quantitatively. It is becoming evident
that these technological developments are consequential to people's fundamental
human rights. Despite increasing attention to these urgent challenges in recent
years, technical solutions to these complex socio-ethical problems are often
developed without empirical study of societal context and the critical input of
societal stakeholders who are impacted by the technology. On the other hand,
calls for more ethically- and socially-aware AI often fail to provide answers
for how to proceed beyond stressing the importance of transparency,
explainability, and fairness. Bridging these socio-technical gaps and the deep
divide between abstract value language and design requirements is essential to
facilitate nuanced, context-dependent design choices that will support moral
and social values. In this paper, we bridge this divide through the framework
of Design for Values, drawing on methodologies of Value Sensitive Design and
Participatory Design to present a roadmap for proactively engaging societal
stakeholders to translate fundamental human rights into context-dependent
design requirements through a structured, inclusive, and transparent process.
- Abstract(参考訳): ビッグデータの時代、企業や政府は、雇用決定、従業員管理、警察、信用スコア、保険価格など、私たちの生活のさまざまな側面にアルゴリズムを使って情報を提供しています。
AIシステムは、エビデンス駆動で効率的な決定を下すのに役立ちますが、自動的かつ定量的に行われるため、正しくない差別的な決定に直面することも可能です。
これらの技術的発展が人々の基本的人権に付随していることは明らかになっている。
近年、これらの急激な課題に注目が集まる一方で、複雑な社会倫理問題に対する技術的な解決策は、社会的文脈の実証的研究や、テクノロジーの影響を受けている社会的利害関係者の批判的な入力を伴わずに、しばしば開発されている。
一方で、より倫理的かつ社会的に認識されたaiの要求は、透明性、説明可能性、公平性の重要性を強調する以上の方法の答えを提供しないことが多い。
これらの社会技術的ギャップと抽象的価値言語と設計要件の深い分断を橋渡しすることは、道徳的、社会的価値をサポートするニュアンスに依存したデザイン選択を促進するために不可欠である。
本稿では,価値のための設計の枠組みと,価値に敏感なデザインと参加型デザインの方法論を描き,社会の利害関係者に積極的に関与し,基本的人権を構造化され,包括的かつ透明なプロセスを通じて,文脈に依存した設計要件に転換するためのロードマップを提示する。
関連論文リスト
- Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Responsible AI Implementation: A Human-centered Framework for
Accelerating the Innovation Process [0.8481798330936974]
本稿では,人工知能(AI)の実装に関する理論的枠組みを提案する。
提案されたフレームワークは、アジャイル共同創造プロセスのための相乗的ビジネス技術アプローチを強調している。
このフレームワークは,AIの人間中心の設計とアジャイル開発を通じて,信頼の確立と維持を重視している。
論文 参考訳(メタデータ) (2022-09-15T06:24:01Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Confronting Abusive Language Online: A Survey from the Ethical and Human
Rights Perspective [4.916009028580767]
我々は,nlpによる自動乱用検出に関する大規模な研究を,倫理的課題に焦点を絞ってレビューする。
我々は、この技術の幅広い社会的影響を調べる必要性を強調している。
我々は、オンライン乱用を検知し対処するための、権利を尊重する社会技術的ソリューションのいくつかの機会を特定した。
論文 参考訳(メタデータ) (2020-12-22T19:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。