論文の概要: Achieving a Data-driven Risk Assessment Methodology for Ethical AI
- arxiv url: http://arxiv.org/abs/2112.01282v1
- Date: Mon, 29 Nov 2021 12:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 09:06:16.950388
- Title: Achieving a Data-driven Risk Assessment Methodology for Ethical AI
- Title(参考訳): 倫理的AIのためのデータ駆動型リスクアセスメント手法の実現
- Authors: Anna Fell\"ander, Jonathan Rebane, Stefan Larsson, Mattias Wiggberg
and Fredrik Heintz
- Abstract要約: 我々は,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基盤として,多分野の研究アプローチが重要であることを示す。
本稿では,DRESS-eAIという新たなリスク評価手法を提案する。
- 参考スコア(独自算出の注目度): 3.523208537466128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The AI landscape demands a broad set of legal, ethical, and societal
considerations to be accounted for in order to develop ethical AI (eAI)
solutions which sustain human values and rights. Currently, a variety of
guidelines and a handful of niche tools exist to account for and tackle
individual challenges. However, it is also well established that many
organizations face practical challenges in navigating these considerations from
a risk management perspective. Therefore, new methodologies are needed to
provide a well-vetted and real-world applicable structure and path through the
checks and balances needed for ethically assessing and guiding the development
of AI. In this paper we show that a multidisciplinary research approach,
spanning cross-sectional viewpoints, is the foundation of a pragmatic
definition of ethical and societal risks faced by organizations using AI.
Equally important is the findings of cross-structural governance for
implementing eAI successfully. Based on evidence acquired from our
multidisciplinary research investigation, we propose a novel data-driven risk
assessment methodology, entitled DRESS-eAI. In addition, through the evaluation
of our methodological implementation, we demonstrate its state-of-the-art
relevance as a tool for sustaining human values in the data-driven AI era.
- Abstract(参考訳): aiの展望は、人間の価値観と権利を維持する倫理的ai(eai)ソリューションを開発するために、幅広い法的、倫理的、社会的な考慮を必要とする。
現在、個々の課題を考慮し対処するために、さまざまなガイドラインといくつかのニッチなツールが存在しています。
しかし、多くの組織がリスク管理の観点からこれらの考察をナビゲートする実践上の課題に直面することは十分に確立されている。
したがって、AIの開発を倫理的に評価し導くために必要なチェックとバランスを通した、十分に検証された現実的な構造とパスを提供するために、新しい方法論が必要である。
本稿では,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基礎として,横断的な視点にまたがる多分野的な研究アプローチを示す。
同様に重要なことは、eAIをうまく実装するための組織間ガバナンスの発見である。
本研究は,多分野研究から得られた証拠に基づいて,DRESS-eAIという新たなデータ駆動型リスク評価手法を提案する。
さらに,我々の方法論的実装の評価を通じて,データ駆動型AI時代の人的価値を維持するツールとして,その最先端性を示す。
関連論文リスト
- An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Towards an Ethical and Inclusive Implementation of Artificial Intelligence in Organizations: A Multidimensional Framework [0.0]
本稿では,現代社会における人工知能の影響と,組織内における倫理的アプローチの採用の重要性を考察する。
政府、学術、市民社会などの様々な俳優は、人間と社会の価値観に沿ったAIの発展を形作る役割を担っている。
論文 参考訳(メタデータ) (2024-05-02T19:43:51Z) - Hacia una implementación ética e inclusiva de la Inteligencia Artificial en las organizaciones: un marco multidimensional [0.0]
本稿は、人工知能が現代社会に与える影響と、組織内におけるその発展と実践に倫理的アプローチを採用することの重要性を分析したものである。
政府、学術、市民社会などの様々な俳優は、人間や社会的価値観に沿ったAIの発展を形作る役割を担っている。
論文 参考訳(メタデータ) (2024-04-30T22:11:05Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Beyond Fairness Metrics: Roadblocks and Challenges for Ethical AI in
Practice [2.1485350418225244]
我々は,現代産業・社会利用の規模で倫理的AIを構築し,展開する上での実践的課題を概観する。
我々は、倫理的AIを実際に構築するには、AIシステムの開発と展開における倫理の全体的考慮が必要であると論じる。
論文 参考訳(メタデータ) (2021-08-11T18:33:17Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A Framework for Ethical AI at the United Nations [0.0]
本稿では、人工知能(AI)における倫理的懸念と、それらのリスクを軽減するために必要な枠組みの概要を提供する。
これは、国連(UN)におけるAIの開発と利用が当社の倫理的価値観に合致するようにするための実用的な道筋を提案します。
論文 参考訳(メタデータ) (2021-04-09T23:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。