論文の概要: Algorithmic Governance for Explainability: A Comparative Overview of
Progress and Trends
- arxiv url: http://arxiv.org/abs/2303.00651v1
- Date: Wed, 1 Mar 2023 16:52:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 14:02:27.816017
- Title: Algorithmic Governance for Explainability: A Comparative Overview of
Progress and Trends
- Title(参考訳): 説明可能性のためのアルゴリズムガバナンス: 進歩とトレンドの比較概要
- Authors: Yulu Pi
- Abstract要約: 説明可能なAI(XAI)の欠如は、すべての経済階級と国境を越えて悪影響を及ぼす。
XAIは、まだ初期段階であり、将来の応用とそれに対応する規制機関は、すべての当事者の協力関係に依存している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explainability of AI has transformed from a purely technical issue to a
complex issue closely related to algorithmic governance and algorithmic
security. The lack of explainable AI (XAI) brings adverse effects that can
cross all economic classes and national borders. Despite efforts in governance,
technical, and policy exchange have been made in XAI by multiple stakeholders,
including the public sector, enterprises, and international organizations,
respectively. XAI is still in its infancy. Future applications and
corresponding regulatory instruments are still dependent on the collaborative
engagement of all parties.
- Abstract(参考訳): AIの説明性は、純粋に技術的な問題から、アルゴリズムのガバナンスとアルゴリズムのセキュリティに密接に関連する複雑な問題へと変化した。
説明可能なAI(XAI)の欠如は、すべての経済階級と国境を越えて悪影響を及ぼす。
行政、技術、政策交換の努力にもかかわらず、xaiは公共部門、企業、国際機関を含む複数の利害関係者によってそれぞれ行われてきた。
XAIはまだ生まれたばかりです。
将来の応用とそれに対応する規制機関は、すべての当事者の協力関係に依存している。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Position Paper: Technical Research and Talent is Needed for Effective AI Governance [0.0]
我々は、EU、米国、中国の公共機関が発行する政策文書を調査する。
我々は、提案された政策行動の実施に必要な技術的要件と、現在の技術状況とを、特定の領域で切り離すことを強調します。
我々の分析は、AIガバナンスにおけるAI/ML研究コミュニティのより緊密な統合を呼び起こします。
論文 参考訳(メタデータ) (2024-06-11T06:32:28Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Beyond XAI:Obstacles Towards Responsible AI [0.0]
説明可能性の方法とその評価戦略は、現実世界の文脈に多くの制限を与える。
本稿では、これらの制限について検討し、責任あるAIの搭乗者コンテキストにおけるそれらの影響について論じる。
論文 参考訳(メタデータ) (2023-09-07T11:08:14Z) - Regulating eXplainable Artificial Intelligence (XAI) May Harm Consumers [3.989227271669354]
一般的な知恵として、完全に透明なXAIを強制することによってAIの規制が社会福祉を増大させる。
本稿では,社会福祉を最大化する政策立案者のゲーム理論モデルを用いて,この概念に挑戦する。
必須のXAIでも保証できないXAI公正性の概念を考察する。
論文 参考訳(メタデータ) (2022-09-07T23:36:11Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。