論文の概要: Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance
- arxiv url: http://arxiv.org/abs/2207.01482v1
- Date: Fri, 10 Jun 2022 09:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-10 17:23:40.702312
- Title: Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance
- Title(参考訳): ステークホルダーをまず考えてください!
規制遵守のためのアルゴリズム的透明性プレイブックに向けて
- Authors: Andrew Bell, Oded Nov, Julia Stoyanovich
- Abstract要約: 世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
- 参考スコア(独自算出の注目度): 14.043062659347427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Increasingly, laws are being proposed and passed by governments around the
world to regulate Artificial Intelligence (AI) systems implemented into the
public and private sectors. Many of these regulations address the transparency
of AI systems, and related citizen-aware issues like allowing individuals to
have the right to an explanation about how an AI system makes a decision that
impacts them. Yet, almost all AI governance documents to date have a
significant drawback: they have focused on what to do (or what not to do) with
respect to making AI systems transparent, but have left the brunt of the work
to technologists to figure out how to build transparent systems. We fill this
gap by proposing a novel stakeholder-first approach that assists technologists
in designing transparent, regulatory compliant systems. We also describe a
real-world case-study that illustrates how this approach can be used in
practice.
- Abstract(参考訳): 人工知能(ai)システムを公共や民間に導入するための法律が、世界中の政府によって提案され、可決されている。
これらの規則の多くは、aiシステムの透明性と、個人がaiシステムがそれらに影響を与える決定を下す方法を説明する権利を付与するといった、関連する市民意識の問題に対処している。
しかし、これまでのほとんどのAIガバナンス文書には、重大な欠点がある。彼らは、AIシステムを透過的にすることに関して何をすべきか(あるいは何をしないか)に焦点を合わせてきたが、その作業を技術者に委ねて、透明なシステムを構築する方法を探った。
このギャップを埋めるために、技術者が透明で規制に準拠したシステムを設計するのを支援する、新たな利害関係者優先のアプローチを提案します。
実世界のケーススタディについても説明し、このアプローチが実際にどのように使われるかを説明します。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Ensuring Fairness with Transparent Auditing of Quantitative Bias in AI Systems [0.30693357740321775]
AIシステムは、意思決定者が不公平な結論を導くバイアスを示す可能性がある。
本稿では,サードパーティの監査官やAIシステムプロバイダによるAIフェアネスの監査を行うフレームワークを提案する。
我々は,AIシステムの体系的な検査を容易にするツールを開発した。
論文 参考訳(メタデータ) (2024-08-24T17:16:50Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Participatory Approaches in AI Development and Governance: A Principled Approach [9.271573427680087]
本稿は、AIにおける参加型ガバナンスに関する2部構成のシリーズの第1部を構成する。
より責任があり、安全で、人間中心のAIシステムを構築し、使用するために、参加型アプローチが有益である、という前提を推し進めている。
論文 参考訳(メタデータ) (2024-06-03T09:49:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Path To Gain Functional Transparency In Artificial Intelligence With
Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Signs for Ethical AI: A Route Towards Transparency [0.0]
一般に公開されている任意のAIシステムに実装する透明性スキームを提案する。
1つ目は、AIのデータ関連を認識し、プライバシによってサポートされている。
2つ目は、AI能力、目的、およびソースという、現在規制されていないAI透明性の側面について考察している。
論文 参考訳(メタデータ) (2020-09-29T08:49:44Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。