論文の概要: Resolving Ethics Trade-offs in Implementing Responsible AI
- arxiv url: http://arxiv.org/abs/2401.08103v1
- Date: Tue, 16 Jan 2024 04:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:17:10.554926
- Title: Resolving Ethics Trade-offs in Implementing Responsible AI
- Title(参考訳): 責任あるAIを実装するための倫理的トレードオフの解決
- Authors: Conrad Sanderson, Emma Schleiger, David Douglas, Petra Kuhnert,
Qinghua Lu
- Abstract要約: 初歩的なものから複雑なものまで、トレードオフを通じて緊張に対処するための5つのアプローチをカバーします。
いずれのアプローチも、すべての組織、システム、アプリケーションに適していない可能性が高い。
i)緊張の積極的な識別、(ii)倫理的側面の優先順位付けと重み付け、(iii)トレードオフ決定の正当化と文書化からなる枠組みを提案する。
- 参考スコア(独自算出の注目度): 20.02114982150612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the operationalisation of high-level AI ethics principles into
practical AI/ML systems has made progress, there is still a theory-practice gap
in managing tensions between the underlying AI ethics aspects. We cover five
approaches for addressing the tensions via trade-offs, ranging from rudimentary
to complex. The approaches differ in the types of considered context, scope,
methods for measuring contexts, and degree of justification. None of the
approaches is likely to be appropriate for all organisations, systems, or
applications. To address this, we propose a framework which consists of: (i)
proactive identification of tensions, (ii) prioritisation and weighting of
ethics aspects, (iii) justification and documentation of trade-off decisions.
The proposed framework aims to facilitate the implementation of well-rounded
AI/ML systems that are appropriate for potential regulatory requirements.
- Abstract(参考訳): 高レベルのAI倫理原則を実践的なAI/MLシステムに運用することは、まだ進展しているが、基礎となるAI倫理の側面間の緊張を管理するための理論と実践のギャップがある。
我々は、ルーディメンタリーからコンプレックスまで、トレードオフを通じて緊張に対処するための5つのアプローチを取り上げます。
アプローチは、考慮された文脈、スコープ、文脈を測定する方法、正当化の度合いのタイプによって異なる。
いずれのアプローチも,すべての組織やシステム,あるいはアプリケーションに適用可能なものではありません。
これに対処するために,我々は以下のフレームワークを提案する。
(i)緊張の積極的な識別
(ii)倫理面の優先順位付け及び重み付け
(iii)トレードオフ決定の正当化及び文書化。
提案するフレームワークは,潜在的な規制要件に適合する,十分に包括されたAI/MLシステムの実装を容易にすることを目的としている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Implementing Responsible AI: Tensions and Trade-Offs Between Ethics Aspects [21.133468554780404]
我々は、多種多様な文献にまたがるサポートに焦点をあてて、双方向のインタラクションに焦点をあてる。
このカタログは、倫理原則の側面間の相互作用の可能性の認識を高めるのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T13:43:13Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Towards Implementing Responsible AI [22.514717870367623]
我々は,AIシステムの設計と開発において,ソフトウェア工学で使用されるプロセスに適応する4つの側面を提案する。
健全な発見は、AIシステム設計と開発、ソフトウェアエンジニアリングで使用されるプロセスの適応の4つの側面をカバーしている。
論文 参考訳(メタデータ) (2022-05-09T14:59:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Principles to Practices for Responsible AI: Closing the Gap [0.1749935196721634]
インパクトアセスメントフレームワークは、原則と実践のギャップを埋めるための有望なアプローチである、と我々は主張する。
我々は、森林生態系の復元におけるAIの使用に関するケーススタディをレビューし、インパクトアセスメントフレームワークが効果的で責任あるAIプラクティスにどのように変換できるかを実証する。
論文 参考訳(メタデータ) (2020-06-08T16:04:44Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。