論文の概要: Algorithmic Governance for Explainability: A Comparative Overview of
Progress and Trends
- arxiv url: http://arxiv.org/abs/2303.00651v1
- Date: Wed, 1 Mar 2023 16:52:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 14:02:27.816017
- Title: Algorithmic Governance for Explainability: A Comparative Overview of
Progress and Trends
- Title(参考訳): 説明可能性のためのアルゴリズムガバナンス: 進歩とトレンドの比較概要
- Authors: Yulu Pi
- Abstract要約: 説明可能なAI(XAI)の欠如は、すべての経済階級と国境を越えて悪影響を及ぼす。
XAIは、まだ初期段階であり、将来の応用とそれに対応する規制機関は、すべての当事者の協力関係に依存している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explainability of AI has transformed from a purely technical issue to a
complex issue closely related to algorithmic governance and algorithmic
security. The lack of explainable AI (XAI) brings adverse effects that can
cross all economic classes and national borders. Despite efforts in governance,
technical, and policy exchange have been made in XAI by multiple stakeholders,
including the public sector, enterprises, and international organizations,
respectively. XAI is still in its infancy. Future applications and
corresponding regulatory instruments are still dependent on the collaborative
engagement of all parties.
- Abstract(参考訳): AIの説明性は、純粋に技術的な問題から、アルゴリズムのガバナンスとアルゴリズムのセキュリティに密接に関連する複雑な問題へと変化した。
説明可能なAI(XAI)の欠如は、すべての経済階級と国境を越えて悪影響を及ぼす。
行政、技術、政策交換の努力にもかかわらず、xaiは公共部門、企業、国際機関を含む複数の利害関係者によってそれぞれ行われてきた。
XAIはまだ生まれたばかりです。
将来の応用とそれに対応する規制機関は、すべての当事者の協力関係に依存している。
関連論文リスト
- Incentive Compatibility for AI Alignment in Sociotechnical Systems:
Positions and Prospects [11.086872298007835]
既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)
ICを実現するための古典的なゲーム問題として,機構設計,契約理論,ベイズ的説得の3つを論じ,ICSAP解決の視点,可能性,課題について論じる。
論文 参考訳(メタデータ) (2024-02-20T10:52:57Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Beyond XAI:Obstacles Towards Responsible AI [0.0]
説明可能性の方法とその評価戦略は、現実世界の文脈に多くの制限を与える。
本稿では、これらの制限について検討し、責任あるAIの搭乗者コンテキストにおけるそれらの影響について論じる。
論文 参考訳(メタデータ) (2023-09-07T11:08:14Z) - Charting the Sociotechnical Gap in Explainable AI: A Framework to
Address the Gap in XAI [29.33534897830558]
このギャップをグラフ化することで問題理解が向上し、説明可能性を改善するための実用的な洞察を反射的に提供できる、と我々は主張する。
我々は、社会技術的ギャップの体系的なチャート作成を容易にする枠組みを経験的に導き出した。
XAIの社会技術的ギャップを理解するための概念的かつ実践的な貢献により、このフレームワークはXAIデザイン空間を拡張している。
論文 参考訳(メタデータ) (2023-02-01T23:21:45Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explainable Artificial Intelligence (XAI): An Engineering Perspective [0.0]
XAIは、いわゆるブラックボックスAIアルゴリズムをホワイトボックスアルゴリズムに変換するテクニックと方法のセットです。
XAIのステークホルダを議論し、エンジニアリングの観点からXAIの数学的輪郭を説明します。
この研究は、XAIの分野における研究の新しい道を特定するための探索的研究です。
論文 参考訳(メタデータ) (2021-01-10T19:49:12Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。