論文の概要: Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI
- arxiv url: http://arxiv.org/abs/2007.14826v2
- Date: Tue, 15 Sep 2020 15:15:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 20:33:07.329471
- Title: Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI
- Title(参考訳): AIのための倫理的・権利に基づく規範原則の実践の基盤としての幸福度評価の強化
- Authors: Marek Havrda and Bogdana Rakova
- Abstract要約: 本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) has an increasing impact on all areas of
people's livelihoods. A detailed look at existing interdisciplinary and
transdisciplinary metrics frameworks could bring new insights and enable
practitioners to navigate the challenge of understanding and assessing the
impact of Autonomous and Intelligent Systems (A/IS). There has been emerging
consensus on fundamental ethical and rights-based AI principles proposed by
scholars, governments, civil rights organizations, and technology companies. In
order to move from principles to real-world implementation, we adopt a lens
motivated by regulatory impact assessments and the well-being movement in
public policy. Similar to public policy interventions, outcomes of AI systems
implementation may have far-reaching complex impacts. In public policy,
indicators are only part of a broader toolbox, as metrics inherently lead to
gaming and dissolution of incentives and objectives. Similarly, in the case of
A/IS, there's a need for a larger toolbox that allows for the iterative
assessment of identified impacts, inclusion of new impacts in the analysis, and
identification of emerging trade-offs. In this paper, we propose the practical
application of an enhanced well-being impact assessment framework for A/IS that
could be employed to address ethical and rights-based normative principles in
AI. This process could enable a human-centered algorithmically-supported
approach to the understanding of the impacts of AI systems. Finally, we propose
a new testing infrastructure which would allow for governments, civil rights
organizations, and others, to engage in cooperating with A/IS developers
towards implementation of enhanced well-being impact assessments.
- Abstract(参考訳): 人工知能(AI)は、人々の生活のあらゆる領域に影響を及ぼす。
既存の学際的および横断的なメトリクスフレームワークを詳細に見てみると、新たな洞察をもたらし、実践者が自律的およびインテリジェントシステム(A/IS)の影響を理解し評価する上での課題をナビゲートすることができる。
学者、政府、公民権団体、テクノロジー企業によって提案された基本的な倫理的および権利に基づくAI原則に関する合意が浮上している。
原則から現実の実施に移行するために、規制の影響評価と公共政策における幸福運動に動機付けられたレンズを採用する。
公共政策の介入と同様に、AIシステムの実装の結果は、はるかに複雑な影響を与える可能性がある。
公共政策では指標はより広範なツールボックスの一部に過ぎず、指標は本質的にゲームやインセンティブや目的の解消につながる。
同様に、a/isの場合、特定された影響の反復的な評価、分析への新たな影響の包含、新興のトレードオフの識別を可能にする、より大きなツールボックスが必要である。
本稿では、AIにおける倫理的・権利的規範に対処するために使用できるA/ISの強化された影響評価フレームワークの実践的応用を提案する。
このプロセスにより、AIシステムの影響を理解するための人間中心のアルゴリズム支援アプローチが可能になる。
最後に、政府、公民権団体等が、A/IS開発者と協力して、より良い影響評価の強化を実現するための新しいテストインフラを提案する。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - Evaluating the Social Impact of Generative AI Systems in Systems and
Society [53.936980366906646]
我々は、任意のモダリティに対して生成AIシステムを評価するための標準的なアプローチに向かっている。
基礎技術システムにおいて、人や社会において、特定の社会的影響カテゴリと、どのようにアプローチし、どのように評価を行うかを説明する。
論文 参考訳(メタデータ) (2023-06-09T15:05:13Z) - Worldwide AI Ethics: a review of 200 guidelines and recommendations for
AI governance [0.0]
本稿では、公共機関、学術機関、民間企業、市民社会団体が公表した200のガバナンス政策とAI利用に関する倫理ガイドラインのメタ分析を行う。
オープンソースデータベースとツールとしてリリースされているデータセットのポリシとガイドラインで一般的な少なくとも17の共鳴原理を特定します。
本研究は, 今後の規制に組み込むべき合意の領域を提示し, 分析結果の批判的分析と組み合わせたグローバルスケール分析研究の実施の限界を提示する。
論文 参考訳(メタデータ) (2022-06-23T18:03:04Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The Different Faces of AI Ethics Across the World: A
Principle-Implementation Gap Analysis [12.031113181911627]
人工知能(AI)は、医療、宇宙探査、銀行、金融といった分野で、私たちの日常生活を変えつつある。
こうしたAIの急速な進歩は、AI技術が社会に与える影響に対する関心を高めている。
いくつかの倫理的原則は政府、国家、国際機関によって公表されている。
これらの原則は、AIの倫理的開発、デプロイメント、ガバナンスを導くための、ハイレベルな規範を概説している。
論文 参考訳(メタデータ) (2022-05-12T22:41:08Z) - Institutionalising Ethics in AI through Broader Impact Requirements [8.793651996676095]
私たちは、世界最大級のAIカンファレンスの1つによる、新しいガバナンスイニシアチブを反映しています。
NeurIPSは、著者に対して、彼らの研究のより広範な社会的影響に関する声明を提出する要求を導入した。
このようなイニシアティブのリスクや課題,潜在的なメリットについて検討する。
論文 参考訳(メタデータ) (2021-05-30T12:36:43Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Principles to Practices for Responsible AI: Closing the Gap [0.1749935196721634]
インパクトアセスメントフレームワークは、原則と実践のギャップを埋めるための有望なアプローチである、と我々は主張する。
我々は、森林生態系の復元におけるAIの使用に関するケーススタディをレビューし、インパクトアセスメントフレームワークが効果的で責任あるAIプラクティスにどのように変換できるかを実証する。
論文 参考訳(メタデータ) (2020-06-08T16:04:44Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。