論文の概要: Enhancements for Developing a Comprehensive AI Fairness Assessment Standard
- arxiv url: http://arxiv.org/abs/2504.07516v1
- Date: Thu, 10 Apr 2025 07:24:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 20:55:39.7294
- Title: Enhancements for Developing a Comprehensive AI Fairness Assessment Standard
- Title(参考訳): 総合的AIフェアネスアセスメント標準の開発のための拡張
- Authors: Avinash Agarwal, Mayashankar Kumar, Manisha J. Nene,
- Abstract要約: 本稿では、画像、非構造化テキスト、生成AIの公平性評価を含むTEC標準の拡張を提案する。
これらの次元を取り入れることで、強化されたフレームワークは、さまざまな分野にわたる責任と信頼性のあるAIデプロイメントを促進する。
- 参考スコア(独自算出の注目度): 1.9662978733004601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI systems increasingly influence critical sectors like telecommunications, finance, healthcare, and public services, ensuring fairness in decision-making is essential to prevent biased or unjust outcomes that disproportionately affect vulnerable entities or result in adverse impacts. This need is particularly pressing as the industry approaches the 6G era, where AI will drive complex functions like autonomous network management and hyper-personalized services. The TEC Standard for Fairness Assessment and Rating of AI Systems provides guidelines for evaluating fairness in AI, focusing primarily on tabular data and supervised learning models. However, as AI applications diversify, this standard requires enhancement to strengthen its impact and broaden its applicability. This paper proposes an expansion of the TEC Standard to include fairness assessments for images, unstructured text, and generative AI, including large language models, ensuring a more comprehensive approach that keeps pace with evolving AI technologies. By incorporating these dimensions, the enhanced framework will promote responsible and trustworthy AI deployment across various sectors.
- Abstract(参考訳): AIシステムが電気通信、金融、医療、公共サービスといった重要な分野にますます影響を及ぼすにつれて、脆弱なエンティティに不均衡に影響を及ぼしたり、有害な影響をもたらすバイアスや不正な結果を防ぐために、意思決定の公平性を確保することが不可欠である。
このニーズは、AIが自律的なネットワーク管理やハイパーパーソナライズされたサービスといった複雑な機能を駆動する6Gの時代に、業界が近づきつつある中で特に強調されている。
TEC Standard for Fairness Assessment and Rating of AI Systemsは、主に表データと教師付き学習モデルに焦点を当てた、AIの公正性を評価するためのガイドラインを提供する。
しかし、AIアプリケーションが多様化するにつれて、この標準は影響を強化し、適用性を広げるために強化を必要としている。
本稿では,画像,非構造化テキスト,生成AIの公平性評価を含むTEC標準の拡張を提案する。
これらの次元を取り入れることで、強化されたフレームワークは、さまざまな分野にわたる責任と信頼性のあるAIデプロイメントを促進する。
関連論文リスト
- HH4AI: A methodological Framework for AI Human Rights impact assessment under the EUAI ACT [1.7754875105502606]
論文では、自律性、データ、目標指向設計によって駆動される、AIの変革的な性質を強調している。
重要な課題は、業界全体での“ハイリスク”なAIシステムの定義と評価である。
リスクを分離し、評価するために設計されたゲートベースのフレームワークである、基本的権利影響評価(FRIA)手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T19:10:14Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.50078821423793]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - AI in ESG for Financial Institutions: An Industrial Survey [4.893954917947095]
本稿では,ESGフレームワークの活性化におけるAIの必要性と影響を明らかにするために,産業環境を調査した。
調査では、分析能力、リスク評価、顧客エンゲージメント、報告精度など、ESGの主要な3つの柱にまたがるAIアプリケーションを分類した。
この論文は、ESG関連の銀行プロセスにおけるAI展開の倫理的側面を強調し、責任と持続可能なAIの衝動についても論じている。
論文 参考訳(メタデータ) (2024-02-03T02:14:47Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。