論文の概要: Operationalising AI governance through ethics-based auditing: An industry case study
- arxiv url: http://arxiv.org/abs/2407.06232v1
- Date: Sun, 7 Jul 2024 12:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 22:22:56.653402
- Title: Operationalising AI governance through ethics-based auditing: An industry case study
- Title(参考訳): 倫理に基づく監査によるAIガバナンスの運用--産業ケーススタディ
- Authors: Jakob Mokander, Luciano Floridi,
- Abstract要約: 倫理に基づく監査(EBA、Ethics Based auditing)とは、過去の行動や現在の行動が道徳的原則や規範との整合性について評価される、構造化されたプロセスである。
この記事では、EBAの手続きを、実現可能かつ効果的に統合する必要がある組織的状況について、詳細な説明を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ethics based auditing (EBA) is a structured process whereby an entitys past or present behaviour is assessed for consistency with moral principles or norms. Recently, EBA has attracted much attention as a governance mechanism that may bridge the gap between principles and practice in AI ethics. However, important aspects of EBA (such as the feasibility and effectiveness of different auditing procedures) have yet to be substantiated by empirical research. In this article, we address this knowledge gap by providing insights from a longitudinal industry case study. Over 12 months, we observed and analysed the internal activities of AstraZeneca, a biopharmaceutical company, as it prepared for and underwent an ethics-based AI audit. While previous literature concerning EBA has focused on proposing evaluation metrics or visualisation techniques, our findings suggest that the main difficulties large multinational organisations face when conducting EBA mirror classical governance challenges. These include ensuring harmonised standards across decentralised organisations, demarcating the scope of the audit, driving internal communication and change management, and measuring actual outcomes. The case study presented in this article contributes to the existing literature by providing a detailed description of the organisational context in which EBA procedures must be integrated to be feasible and effective.
- Abstract(参考訳): 倫理に基づく監査(EBA、Ethics Based auditing)とは、過去の行動や現在の行動が道徳的原則や規範との整合性について評価される、構造化されたプロセスである。
近年、EBAはAI倫理における原則と実践のギャップを埋めるガバナンスメカニズムとして多くの注目を集めている。
しかし、EBAの重要な側面(例えば、異なる監査手順の実現可能性や有効性)は、まだ実証研究によって裏付けられていない。
本稿では,縦断的産業ケーススタディから洞察を得ることによって,この知識ギャップに対処する。
12カ月以上にわたり、我々は、倫理ベースのAI監査の準備と実施のために、バイオ医薬品会社であるAstraZenecaの内部活動を観察し、分析した。
EBAに関するこれまでの文献は、評価指標や可視化技術の提案に重点を置いているが、この発見は、EBAが古典的なガバナンス課題を反映する上で、大きな多国籍組織が直面する主な困難を示唆している。
これには、分散化された組織全体の調和した標準の確保、監査の範囲の縮小、内部コミュニケーションと変更管理の推進、実際の成果の測定などが含まれる。
本稿で紹介するケーススタディは,ERAの手順を統合化して実現可能かつ効果的にする必要があるという,組織的状況の詳細な説明を提供することによって,既存の文献に寄与する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z) - Ethics-Based Auditing of Automated Decision-Making Systems: Intervention
Points and Policy Implications [0.0]
本稿では,倫理に基づく監査(EBA)の実施が実現可能かつ効果的である状況について概説する。
我々はADMSを、より大規模な社会技術システムの一部とみなし、実現可能かつ効果的であるためには、EBAの手続きが介入ポイントにリンクする必要があることを実証する。
論文 参考訳(メタデータ) (2021-11-08T10:57:26Z) - Ethics-Based Auditing of Automated Decision-Making Systems: Nature,
Scope, and Limitations [1.2599533416395765]
タスクを自動意思決定システム(ADMS)に委譲することは、効率を改善し、新しいソリューションを可能にする。
例えば、ADMSは差別的な結果を生み出し、個人のプライバシーを侵害し、人間の自己決定を損なう可能性がある。
したがって、倫理的な方法でADMSを設計し、デプロイするのに役立つ新しいガバナンスメカニズムが必要である。
論文 参考訳(メタデータ) (2021-10-21T08:51:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。