論文の概要: Ethical AI: Towards Defining a Collective Evaluation Framework
- arxiv url: http://arxiv.org/abs/2506.00233v1
- Date: Fri, 30 May 2025 21:10:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.515449
- Title: Ethical AI: Towards Defining a Collective Evaluation Framework
- Title(参考訳): 倫理的AI: 集合的評価フレームワークの定義に向けて
- Authors: Aasish Kumar Sharma, Dimitar Kyosev, Julian Kunkel,
- Abstract要約: 人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.3413711585591077
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial Intelligence (AI) is transforming sectors such as healthcare, finance, and autonomous systems, offering powerful tools for innovation. Yet its rapid integration raises urgent ethical concerns related to data ownership, privacy, and systemic bias. Issues like opaque decision-making, misleading outputs, and unfair treatment in high-stakes domains underscore the need for transparent and accountable AI systems. This article addresses these challenges by proposing a modular ethical assessment framework built on ontological blocks of meaning-discrete, interpretable units that encode ethical principles such as fairness, accountability, and ownership. By integrating these blocks with FAIR (Findable, Accessible, Interoperable, Reusable) principles, the framework supports scalable, transparent, and legally aligned ethical evaluations, including compliance with the EU AI Act. Using a real-world use case in AI-powered investor profiling, the paper demonstrates how the framework enables dynamic, behavior-informed risk classification. The findings suggest that ontological blocks offer a promising path toward explainable and auditable AI ethics, though challenges remain in automation and probabilistic reasoning.
- Abstract(参考訳): 人工知能(AI)は、医療、金融、自律システムといった分野を変革し、イノベーションのための強力なツールを提供している。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
不透明な意思決定、誤解を招くアウトプット、高レベルのドメインにおける不公平な処理といった問題は、透明で説明可能なAIシステムの必要性を浮き彫りにする。
本稿では, 公平性, 説明責任, 所有権などの倫理的原則を符号化した, 意味不明で解釈可能な単位のオントロジ的ブロック上に構築されたモジュール型倫理的評価フレームワークを提案することによって, これらの課題に対処する。
これらのブロックをFAIR(Findable, Accessible, Interoperable, Reusable)原則に統合することにより、このフレームワークは、EU AI Actへの準拠を含む、スケーラブルで透明性があり、法的に整合した倫理的評価をサポートする。
この論文は、AIによる投資家のプロファイリングにおける現実世界のユースケースを用いて、このフレームワークが動的で行動インフォームドなリスク分類を実現する方法を示している。
この結果は、オントロジブロックが、自動化と確率論的推論の課題は残るものの、説明可能で監査可能なAI倫理への有望な道を提供することを示唆している。
関連論文リスト
- Deontic Temporal Logic for Formal Verification of AI Ethics [4.028503203417233]
本稿では,AIシステムの倫理的行動を定義し評価するために,デオン論理に基づく形式化を提案する。
公理と定理を導入し、公正性と説明可能性に関する倫理的要件を捉えている。
筆者らは,実世界のCompASとローン予測AIシステムの倫理性を評価することにより,この形式化の有効性を評価する。
論文 参考訳(メタデータ) (2025-01-10T07:48:40Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。