論文の概要: Statutory Professions in AI governance and their consequences for
explainable AI
- arxiv url: http://arxiv.org/abs/2306.08959v1
- Date: Thu, 15 Jun 2023 08:51:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:44:26.250242
- Title: Statutory Professions in AI governance and their consequences for
explainable AI
- Title(参考訳): AIガバナンスの統計学と説明可能なAIへの影響
- Authors: Labhaoise NiFhaolain, Andrew Hines, Vivek Nallur
- Abstract要約: AIの使用によって引き起こされる意図的・偶発的な害は個人の健康、安全、権利に影響を及ぼした。
我々は、AI規制フレームワークの必須部分として、法定専門職の枠組みを導入することを提案する。
- 参考スコア(独自算出の注目度): 2.363388546004777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intentional and accidental harms arising from the use of AI have impacted the
health, safety and rights of individuals. While regulatory frameworks are being
developed, there remains a lack of consensus on methods necessary to deliver
safe AI. The potential for explainable AI (XAI) to contribute to the
effectiveness of the regulation of AI is being increasingly examined.
Regulation must include methods to ensure compliance on an ongoing basis,
though there is an absence of practical proposals on how to achieve this. For
XAI to be successfully incorporated into a regulatory system, the individuals
who are engaged in interpreting/explaining the model to stakeholders should be
sufficiently qualified for the role. Statutory professionals are prevalent in
domains in which harm can be done to the health, safety and rights of
individuals. The most obvious examples are doctors, engineers and lawyers.
Those professionals are required to exercise skill and judgement and to defend
their decision making process in the event of harm occurring. We propose that a
statutory profession framework be introduced as a necessary part of the AI
regulatory framework for compliance and monitoring purposes. We will refer to
this new statutory professional as an AI Architect (AIA). This AIA would be
responsible to ensure the risk of harm is minimised and accountable in the
event that harms occur. The AIA would also be relied on to provide appropriate
interpretations/explanations of XAI models to stakeholders. Further, in order
to satisfy themselves that the models have been developed in a satisfactory
manner, the AIA would require models to have appropriate transparency.
Therefore it is likely that the introduction of an AIA system would lead to an
increase in the use of XAI to enable AIA to discharge their professional
obligations.
- Abstract(参考訳): AIの使用による意図的、偶発的な害は個人の健康、安全、権利に影響を及ぼした。
規制フレームワークが開発されている一方で、安全なaiを提供するために必要な方法に関するコンセンサスが不足している。
説明可能なAI(XAI)がAIの規制の有効性に寄与する可能性が高まっている。
規制には、継続的にコンプライアンスを確保するための方法を含める必要があるが、これを達成するための実践的な提案はない。
XAIが規制システムにうまく組み入れられるためには、モデルのステークホルダーへの解釈や説明に携わる個人がその役割に十分な資格を持つ必要がある。
法律専門家は、個人の健康、安全、権利に危害を加えることができる領域で一般的である。
最も明白な例は、医師、エンジニア、弁護士である。
これらの専門家は、スキルと判断を行使し、害が生じた場合に意思決定プロセスを守る必要がある。
我々は、コンプライアンスと監視の目的で、AI規制フレームワークの必須部分として、法定専門職フレームワークを導入することを提案する。
この新しい法律専門家をaiアーキテクト(aia)と呼びます。
このAIAは、危害が発生した場合に、危害のリスクを最小限に抑え、説明責任を負う。
AIAはまた、XAIモデルの適切な解釈/説明を利害関係者に提供するためにも依存する。
さらに、モデルが十分に開発されていることを満足させるためには、AIAはモデルに適切な透明性を持たなければならない。
したがって、AIA制度の導入により、AIAが専門的義務を負うことができるよう、XAIの利用が増加する可能性が高い。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - A risk-based approach to assessing liability risk for AI-driven harms
considering EU liability directive [0.0]
AIによる害の歴史的事例により、欧州連合はAIの責任指令を制定した。
製品責任主張に競合するプロバイダの今後の能力は、AIシステムの設計、開発、保守において採用される優れたプラクティスに依存します。
本稿では,AIによる外傷に対する責任を検討するためのリスクベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-18T15:52:43Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Is the U.S. Legal System Ready for AI's Challenges to Human Values? [16.510834081597377]
本研究では,ジェネレーティブAIが人的価値にもたらす課題に対して,米国法がいかに効果的に対処するかを検討する。
基本的価値の保護に関する既存の法的枠組みにおける顕著なギャップと不確実性を明らかにする。
我々は、新たな脅威を認識し、業界関係者に積極的に監査可能なガイドラインを提供するよう進化する法的枠組みを提唱する。
論文 参考訳(メタデータ) (2023-08-30T09:19:06Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - AI Liability Insurance With an Example in AI-Powered E-diagnosis System [22.102728605081534]
我々はAIによるE-diagnosisシステムをAI責任保険の研究の例として用いている。
我々は、AI責任保険がコンプライアンス行動のインセンティブを与えるための規制機構として機能し、高品質なAIシステムの証明書として機能することを示した。
論文 参考訳(メタデータ) (2023-06-01T21:03:47Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。