論文の概要: Achieving a Data-driven Risk Assessment Methodology for Ethical AI
- arxiv url: http://arxiv.org/abs/2112.01282v1
- Date: Mon, 29 Nov 2021 12:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 09:06:16.950388
- Title: Achieving a Data-driven Risk Assessment Methodology for Ethical AI
- Title(参考訳): 倫理的AIのためのデータ駆動型リスクアセスメント手法の実現
- Authors: Anna Fell\"ander, Jonathan Rebane, Stefan Larsson, Mattias Wiggberg
and Fredrik Heintz
- Abstract要約: 我々は,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基盤として,多分野の研究アプローチが重要であることを示す。
本稿では,DRESS-eAIという新たなリスク評価手法を提案する。
- 参考スコア(独自算出の注目度): 3.523208537466128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The AI landscape demands a broad set of legal, ethical, and societal
considerations to be accounted for in order to develop ethical AI (eAI)
solutions which sustain human values and rights. Currently, a variety of
guidelines and a handful of niche tools exist to account for and tackle
individual challenges. However, it is also well established that many
organizations face practical challenges in navigating these considerations from
a risk management perspective. Therefore, new methodologies are needed to
provide a well-vetted and real-world applicable structure and path through the
checks and balances needed for ethically assessing and guiding the development
of AI. In this paper we show that a multidisciplinary research approach,
spanning cross-sectional viewpoints, is the foundation of a pragmatic
definition of ethical and societal risks faced by organizations using AI.
Equally important is the findings of cross-structural governance for
implementing eAI successfully. Based on evidence acquired from our
multidisciplinary research investigation, we propose a novel data-driven risk
assessment methodology, entitled DRESS-eAI. In addition, through the evaluation
of our methodological implementation, we demonstrate its state-of-the-art
relevance as a tool for sustaining human values in the data-driven AI era.
- Abstract(参考訳): aiの展望は、人間の価値観と権利を維持する倫理的ai(eai)ソリューションを開発するために、幅広い法的、倫理的、社会的な考慮を必要とする。
現在、個々の課題を考慮し対処するために、さまざまなガイドラインといくつかのニッチなツールが存在しています。
しかし、多くの組織がリスク管理の観点からこれらの考察をナビゲートする実践上の課題に直面することは十分に確立されている。
したがって、AIの開発を倫理的に評価し導くために必要なチェックとバランスを通した、十分に検証された現実的な構造とパスを提供するために、新しい方法論が必要である。
本稿では,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基礎として,横断的な視点にまたがる多分野的な研究アプローチを示す。
同様に重要なことは、eAIをうまく実装するための組織間ガバナンスの発見である。
本研究は,多分野研究から得られた証拠に基づいて,DRESS-eAIという新たなデータ駆動型リスク評価手法を提案する。
さらに,我々の方法論的実装の評価を通じて,データ駆動型AI時代の人的価値を維持するツールとして,その最先端性を示す。
関連論文リスト
- Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Beyond Fairness Metrics: Roadblocks and Challenges for Ethical AI in
Practice [2.1485350418225244]
我々は,現代産業・社会利用の規模で倫理的AIを構築し,展開する上での実践的課題を概観する。
我々は、倫理的AIを実際に構築するには、AIシステムの開発と展開における倫理の全体的考慮が必要であると論じる。
論文 参考訳(メタデータ) (2021-08-11T18:33:17Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A Framework for Ethical AI at the United Nations [0.0]
本稿では、人工知能(AI)における倫理的懸念と、それらのリスクを軽減するために必要な枠組みの概要を提供する。
これは、国連(UN)におけるAIの開発と利用が当社の倫理的価値観に合致するようにするための実用的な道筋を提案します。
論文 参考訳(メタデータ) (2021-04-09T23:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。