論文の概要: Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI
- arxiv url: http://arxiv.org/abs/2007.14826v2
- Date: Tue, 15 Sep 2020 15:15:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 20:33:07.329471
- Title: Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI
- Title(参考訳): AIのための倫理的・権利に基づく規範原則の実践の基盤としての幸福度評価の強化
- Authors: Marek Havrda and Bogdana Rakova
- Abstract要約: 本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) has an increasing impact on all areas of
people's livelihoods. A detailed look at existing interdisciplinary and
transdisciplinary metrics frameworks could bring new insights and enable
practitioners to navigate the challenge of understanding and assessing the
impact of Autonomous and Intelligent Systems (A/IS). There has been emerging
consensus on fundamental ethical and rights-based AI principles proposed by
scholars, governments, civil rights organizations, and technology companies. In
order to move from principles to real-world implementation, we adopt a lens
motivated by regulatory impact assessments and the well-being movement in
public policy. Similar to public policy interventions, outcomes of AI systems
implementation may have far-reaching complex impacts. In public policy,
indicators are only part of a broader toolbox, as metrics inherently lead to
gaming and dissolution of incentives and objectives. Similarly, in the case of
A/IS, there's a need for a larger toolbox that allows for the iterative
assessment of identified impacts, inclusion of new impacts in the analysis, and
identification of emerging trade-offs. In this paper, we propose the practical
application of an enhanced well-being impact assessment framework for A/IS that
could be employed to address ethical and rights-based normative principles in
AI. This process could enable a human-centered algorithmically-supported
approach to the understanding of the impacts of AI systems. Finally, we propose
a new testing infrastructure which would allow for governments, civil rights
organizations, and others, to engage in cooperating with A/IS developers
towards implementation of enhanced well-being impact assessments.
- Abstract(参考訳): 人工知能(AI)は、人々の生活のあらゆる領域に影響を及ぼす。
既存の学際的および横断的なメトリクスフレームワークを詳細に見てみると、新たな洞察をもたらし、実践者が自律的およびインテリジェントシステム(A/IS)の影響を理解し評価する上での課題をナビゲートすることができる。
学者、政府、公民権団体、テクノロジー企業によって提案された基本的な倫理的および権利に基づくAI原則に関する合意が浮上している。
原則から現実の実施に移行するために、規制の影響評価と公共政策における幸福運動に動機付けられたレンズを採用する。
公共政策の介入と同様に、AIシステムの実装の結果は、はるかに複雑な影響を与える可能性がある。
公共政策では指標はより広範なツールボックスの一部に過ぎず、指標は本質的にゲームやインセンティブや目的の解消につながる。
同様に、a/isの場合、特定された影響の反復的な評価、分析への新たな影響の包含、新興のトレードオフの識別を可能にする、より大きなツールボックスが必要である。
本稿では、AIにおける倫理的・権利的規範に対処するために使用できるA/ISの強化された影響評価フレームワークの実践的応用を提案する。
このプロセスにより、AIシステムの影響を理解するための人間中心のアルゴリズム支援アプローチが可能になる。
最後に、政府、公民権団体等が、A/IS開発者と協力して、より良い影響評価の強化を実現するための新しいテストインフラを提案する。
関連論文リスト
- Where Assessment Validation and Responsible AI Meet [0.0876953078294908]
本稿では,古典的テスト検証理論と評価固有のドメインに依存しないRAIの原則と実践を考察する統合評価フレームワークを提案する。
このフレームワークは、妥当性議論をサポートする評価のための責任あるAI使用、人間の価値と監視を維持するためのAI倫理との整合性、そしてAI使用に関連するより広範な社会的責任に対処する。
論文 参考訳(メタデータ) (2024-11-04T20:20:29Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Crossing the principle-practice gap in AI ethics with ethical problem-solving [0.0]
AI開発の技術的側面から倫理的言説を分離する原則-実践的ギャップを埋めるには、依然として未解決の問題である。
EPSは、責任、人間中心、価値指向のAI開発を促進する方法論である。
EPSを青写真として利用し、Ethics as a Service Platformの実装を提案します。
論文 参考訳(メタデータ) (2024-04-16T14:35:13Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Worldwide AI Ethics: a review of 200 guidelines and recommendations for
AI governance [0.0]
本稿では、公共機関、学術機関、民間企業、市民社会団体が公表した200のガバナンス政策とAI利用に関する倫理ガイドラインのメタ分析を行う。
オープンソースデータベースとツールとしてリリースされているデータセットのポリシとガイドラインで一般的な少なくとも17の共鳴原理を特定します。
本研究は, 今後の規制に組み込むべき合意の領域を提示し, 分析結果の批判的分析と組み合わせたグローバルスケール分析研究の実施の限界を提示する。
論文 参考訳(メタデータ) (2022-06-23T18:03:04Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Institutionalising Ethics in AI through Broader Impact Requirements [8.793651996676095]
私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
論文 参考訳(メタデータ) (2021-05-30T12:36:43Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Principles to Practices for Responsible AI: Closing the Gap [0.1749935196721634]
インパクトアセスメントフレームワークは、原則と実践のギャップを埋めるための有望なアプローチである、と我々は主張する。
我々は、森林生態系の復元におけるAIの使用に関するケーススタディをレビューし、インパクトアセスメントフレームワークが効果的で責任あるAIプラクティスにどのように変換できるかを実証する。
論文 参考訳(メタデータ) (2020-06-08T16:04:44Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。