論文の概要: Ethics-Based Auditing to Develop Trustworthy AI
- arxiv url: http://arxiv.org/abs/2105.00002v1
- Date: Fri, 30 Apr 2021 11:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 06:23:17.481992
- Title: Ethics-Based Auditing to Develop Trustworthy AI
- Title(参考訳): 信頼できるAIを開発するための倫理ベースの監査
- Authors: Jakob Mokander and Luciano Floridi
- Abstract要約: 倫理に基づく監査は、意思決定の質の向上、ユーザの満足度の向上、成長可能性の解放、法律作成の有効化、人間の苦悩の緩和を可能にすると論じる。
倫理に基づく監査は、継続的かつ建設的なプロセスの形をとり、システムの観点から倫理的なアライメントにアプローチし、倫理的に望ましい行動のための公共政策とインセンティブに整合する必要があります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A series of recent developments points towards auditing as a promising
mechanism to bridge the gap between principles and practice in AI ethics.
Building on ongoing discussions concerning ethics-based auditing, we offer
three contributions. First, we argue that ethics-based auditing can improve the
quality of decision making, increase user satisfaction, unlock growth
potential, enable law-making, and relieve human suffering. Second, we highlight
current best practices to support the design and implementation of ethics-based
auditing: To be feasible and effective, ethics-based auditing should take the
form of a continuous and constructive process, approach ethical alignment from
a system perspective, and be aligned with public policies and incentives for
ethically desirable behaviour. Third, we identify and discuss the constraints
associated with ethics-based auditing. Only by understanding and accounting for
these constraints can ethics-based auditing facilitate ethical alignment of AI,
while enabling society to reap the full economic and social benefits of
automation.
- Abstract(参考訳): 最近の一連の発展は、AI倫理における原則と実践のギャップを埋めるための有望なメカニズムとして監査に向けられている。
倫理に基づく監査に関する議論が続いており、3つのコントリビューションを提供している。
まず,倫理に基づく監査は,意思決定の質の向上,ユーザの満足度の向上,成長可能性の解放,法制化,人的苦痛の軽減に有効である,と論じる。
第2に、倫理ベースの監査の設計と実施をサポートする現在のベストプラクティスを強調する。 実現可能かつ効果的であるためには、倫理ベースの監査は、継続的かつ建設的なプロセスの形をとり、システムの観点から倫理的アライメントにアプローチし、倫理的に望ましい行動のための公共政策とインセンティブに合わせるべきである。
第3に,倫理ベースの監査に関する制約を特定し,議論する。
これらの制約の理解と説明によってのみ、倫理ベースの監査はaiの倫理的連携を促進し、社会は自動化による経済的、社会的利益を享受できる。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions [1.864621482724548]
我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Towards An Ethics-Audit Bot [0.6445605125467572]
本稿では,特定の社会技術的条件を考慮し,対象システムの倫理的監査を行うシステムを提案する。
より具体的には、ソフトウェア開発ライフサイクルに一定の倫理的基準を満たしたプロセスが含まれていることを保証するために、組織を支援できるボットの作成を提案する。
論文 参考訳(メタデータ) (2021-03-29T16:33:22Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。