論文の概要: Making Power Explicable in AI: Analyzing, Understanding, and Redirecting Power to Operationalize Ethics in AI Technical Practice
- arxiv url: http://arxiv.org/abs/2510.10588v1
- Date: Sun, 12 Oct 2025 13:09:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.022808
- Title: Making Power Explicable in AI: Analyzing, Understanding, and Redirecting Power to Operationalize Ethics in AI Technical Practice
- Title(参考訳): AIでパワーを明示可能にする:AI技術実践における倫理の運用のためのパワーの分析、理解、リダイレクト
- Authors: Weina Jin, Elise Li Zheng, Ghassan Hamarneh,
- Abstract要約: まず、説明可能なAIにおけるAI倫理の非効率な実装の現象(つまり「症状」)を説明する。
症状」から、AIの社会技術システムにおける権力構造の機能不全と不均衡である根本原因(つまり「損失」)を診断する。
パワーメカニズムの理解に基づき,根本原因に対処するための3つの介入勧告を提案する。
- 参考スコア(独自算出の注目度): 12.114215545709818
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The operationalization of ethics in the technical practices of artificial intelligence (AI) is facing significant challenges. To address the problem of ineffective implementation of AI ethics, we present our diagnosis, analysis, and interventional recommendations from a unique perspective of the real-world implementation of AI ethics through explainable AI (XAI) techniques. We first describe the phenomenon (i.e., the "symptoms") of ineffective implementation of AI ethics in explainable AI using four empirical cases. From the "symptoms", we diagnose the root cause (i.e., the "disease") being the dysfunction and imbalance of power structures in the sociotechnical system of AI. The power structures are dominated by unjust and unchecked power that does not represent the benefits and interests of the public and the most impacted communities, and cannot be countervailed by ethical power. Based on the understanding of power mechanisms, we propose three interventional recommendations to tackle the root cause, including: 1) Making power explicable and checked, 2) Reframing the narratives and assumptions of AI and AI ethics to check unjust power and reflect the values and benefits of the public, and 3) Uniting the efforts of ethical and scientific conduct of AI to encode ethical values as technical standards, norms, and methods, including conducting critical examinations and limitation analyses of AI technical practices. We hope that our diagnosis and interventional recommendations can be a useful input to the AI community and civil society's ongoing discussion and implementation of ethics in AI for ethical and responsible AI practice.
- Abstract(参考訳): 人工知能(AI)の技術実践における倫理の運用は、重大な課題に直面している。
我々は,AI倫理の非効率的な実施の問題に対処するために,説明可能なAI(XAI)技術を通じて,現実のAI倫理の実装のユニークな視点から診断,分析,介入レコメンデーションを提示する。
まず、4つの経験的ケースを用いた説明可能なAIにおけるAI倫理の非効率な実施の現象(つまり「症状」)を説明する。
症状」から、AIの社会技術システムにおける権力構造の機能不全と不均衡である根本原因(つまり「損失」)を診断する。
権力構造は、公民の利益と利益を表わさない不公平で未確認の権力によって支配されており、倫理的な権力に逆らうことはできない。
パワーメカニズムの理解に基づいて、根本原因に取り組むための3つの介入勧告を提案する。
1) 電力を説明可能とし、確認すること。
2)AIとAI倫理の物語と仮定を反映して、不当な力をチェックし、大衆の価値観と利益を反映し、
3) 倫理的価値を技術基準、基準及び方法として符号化するAIの倫理的・科学的行為の取り組みを統一すること。
私たちは、私たちの診断と介入レコメンデーションが、倫理的かつ責任あるAI実践のためのAIにおける倫理の議論と実装の進行中のAIコミュニティおよび市民社会への有用なインプットになることを期待しています。
関連論文リスト
- A Capability Approach to AI Ethics [0.0]
能力アプローチによるAI倫理の概念化は、規律としてのAI倫理に2つの大きな利点があることを示す。
まず、AIツールの倫理的側面を明らかにするのに役立つ。
第2に、AIツールの設計において倫理的配慮を実装するためのガイダンスを提供する。
論文 参考訳(メタデータ) (2025-01-10T12:08:21Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - Ethics in the Age of AI: An Analysis of AI Practitioners' Awareness and
Challenges [11.656193349991609]
我々は,AI実践者のAI倫理に対する意識と倫理を取り入れた課題を理解することを目的とした調査を行った。
この結果から,AI実践者の大多数が,AI倫理の概念に精通していることが示唆された。
フォーマルな教育・訓練は、実践者がAI倫理を取り入れるように準備するのに幾らか役立つと考えられていた。
論文 参考訳(メタデータ) (2023-07-14T02:50:46Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。