論文の概要: Understanding AI Trustworthiness: A Scoping Review of AIES & FAccT Articles
- arxiv url: http://arxiv.org/abs/2510.21293v1
- Date: Fri, 24 Oct 2025 09:40:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.428878
- Title: Understanding AI Trustworthiness: A Scoping Review of AIES & FAccT Articles
- Title(参考訳): AIの信頼性を理解する - AIESとFAccTの記事のスコーピングレビュー
- Authors: Siddharth Mehrotra, Jin Huang, Xuelong Fu, Roel Dobbe, Clara I. Sánchez, Maarten de Rijke,
- Abstract要約: 信頼できるAIは、AIESとFAccTという2つの主要なAI倫理カンファレンスの基礎となっている。
このスコーピングレビューは、AIESとFAccTコミュニティがAIの信頼性を概念化し、測定し、検証する方法を検討することを目的としている。
- 参考スコア(独自算出の注目度): 41.419459280691605
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Background: Trustworthy AI serves as a foundational pillar for two major AI ethics conferences: AIES and FAccT. However, current research often adopts techno-centric approaches, focusing primarily on technical attributes such as reliability, robustness, and fairness, while overlooking the sociotechnical dimensions critical to understanding AI trustworthiness in real-world contexts. Objectives: This scoping review aims to examine how the AIES and FAccT communities conceptualize, measure, and validate AI trustworthiness, identifying major gaps and opportunities for advancing a holistic understanding of trustworthy AI systems. Methods: We conduct a scoping review of AIES and FAccT conference proceedings to date, systematically analyzing how trustworthiness is defined, operationalized, and applied across different research domains. Our analysis focuses on conceptualization approaches, measurement methods, verification and validation techniques, application areas, and underlying values. Results: While significant progress has been made in defining technical attributes such as transparency, accountability, and robustness, our findings reveal critical gaps. Current research often predominantly emphasizes technical precision at the expense of social and ethical considerations. The sociotechnical nature of AI systems remains less explored and trustworthiness emerges as a contested concept shaped by those with the power to define it. Conclusions: An interdisciplinary approach combining technical rigor with social, cultural, and institutional considerations is essential for advancing trustworthy AI. We propose actionable measures for the AI ethics community to adopt holistic frameworks that genuinely address the complex interplay between AI systems and society, ultimately promoting responsible technological development that benefits all stakeholders.
- Abstract(参考訳): 背景: 信頼できるAIは、AIESとFAccTという2つの主要なAI倫理カンファレンスの基礎となっている。
しかしながら、現在の研究はしばしばテクノ中心のアプローチを採用しており、信頼性、堅牢性、公正性といった技術的属性に重点を置いている一方で、現実の文脈におけるAIの信頼性を理解する上で重要な社会技術的側面を見下ろしている。
目的: このスクーピングレビューは、AIESとFAccTコミュニティがAIの信頼性を概念化し、測定し、検証し、信頼できるAIシステムの総合的な理解を促進するための大きなギャップと機会を特定することを目的としている。
方法:AIESとFAccTの会議手続きのスコーピングレビューを実施し,信頼度の定義,運用,異なる研究領域にまたがる適用について,体系的に分析する。
本分析では,概念化アプローチ,測定方法,検証と検証手法,適用領域,基礎となる値に着目した。
結果:透明性やアカウンタビリティ,堅牢性といった技術的特性を定義する上で,大きな進展が見られたが,この結果から重要なギャップが明らかとなった。
現在の研究はしばしば、社会的・倫理的な考慮を犠牲にして、技術的な正確さを強調している。
AIシステムの社会技術的性質はいまだ解明されておらず、信頼感はそれを定義する力を持つ人々によって形作られた議論された概念として現れます。
結論: 技術的厳密さと社会的、文化的、制度的な配慮を組み合わせる学際的アプローチは、信頼できるAIの推進に不可欠である。
我々は、AIシステムと社会の複雑な相互作用に真に対処し、最終的にはすべての利害関係者に利益をもたらす責任ある技術開発を促進する包括的枠組みを採用するための、AI倫理コミュニティのための実用的な措置を提案する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Bridging Ethical Principles and Algorithmic Methods: An Alternative Approach for Assessing Trustworthiness in AI Systems [0.0]
本稿では,Trustworthy AIの倫理的要素とPageRankとTrustRankのアルゴリズム的プロセスを組み合わせた評価手法を提案する。
目標は、フィールドで広く普及する自己評価技術に固有の主観性を最小化するアセスメントフレームワークを確立することである。
論文 参考訳(メタデータ) (2025-06-28T06:27:30Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。