論文の概要: Understanding AI Trustworthiness: A Scoping Review of AIES & FAccT Articles
- arxiv url: http://arxiv.org/abs/2510.21293v2
- Date: Tue, 28 Oct 2025 15:20:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 13:20:32.873886
- Title: Understanding AI Trustworthiness: A Scoping Review of AIES & FAccT Articles
- Title(参考訳): AIの信頼性を理解する - AIESとFAccTの記事のスコーピングレビュー
- Authors: Siddharth Mehrotra, Jin Huang, Xuelong Fu, Roel Dobbe, Clara I. Sánchez, Maarten de Rijke,
- Abstract要約: 信頼できるAIは、AIESとFAccTという2つの主要なAI倫理カンファレンスの基礎となっている。
このスコーピングレビューは、AIESとFAccTコミュニティがAIの信頼性を概念化し、測定し、検証する方法を検討することを目的としている。
- 参考スコア(独自算出の注目度): 41.419459280691605
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Background: Trustworthy AI serves as a foundational pillar for two major AI ethics conferences: AIES and FAccT. However, current research often adopts techno-centric approaches, focusing primarily on technical attributes such as reliability, robustness, and fairness, while overlooking the sociotechnical dimensions critical to understanding AI trustworthiness in real-world contexts. Objectives: This scoping review aims to examine how the AIES and FAccT communities conceptualize, measure, and validate AI trustworthiness, identifying major gaps and opportunities for advancing a holistic understanding of trustworthy AI systems. Methods: We conduct a scoping review of AIES and FAccT conference proceedings to date, systematically analyzing how trustworthiness is defined, operationalized, and applied across different research domains. Our analysis focuses on conceptualization approaches, measurement methods, verification and validation techniques, application areas, and underlying values. Results: While significant progress has been made in defining technical attributes such as transparency, accountability, and robustness, our findings reveal critical gaps. Current research often predominantly emphasizes technical precision at the expense of social and ethical considerations. The sociotechnical nature of AI systems remains less explored and trustworthiness emerges as a contested concept shaped by those with the power to define it. Conclusions: An interdisciplinary approach combining technical rigor with social, cultural, and institutional considerations is essential for advancing trustworthy AI. We propose actionable measures for the AI ethics community to adopt holistic frameworks that genuinely address the complex interplay between AI systems and society, ultimately promoting responsible technological development that benefits all stakeholders.
- Abstract(参考訳): 背景: 信頼できるAIは、AIESとFAccTという2つの主要なAI倫理カンファレンスの基礎となっている。
しかしながら、現在の研究はしばしばテクノ中心のアプローチを採用しており、信頼性、堅牢性、公正性といった技術的属性に重点を置いている一方で、現実の文脈におけるAIの信頼性を理解する上で重要な社会技術的側面を見下ろしている。
目的: このスクーピングレビューは、AIESとFAccTコミュニティがAIの信頼性を概念化し、測定し、検証し、信頼できるAIシステムの総合的な理解を促進するための大きなギャップと機会を特定することを目的としている。
方法:AIESとFAccTの会議手続きのスコーピングレビューを実施し,信頼度の定義,運用,異なる研究領域にまたがる適用について,体系的に分析する。
本分析では,概念化アプローチ,測定方法,検証と検証手法,適用領域,基礎となる値に着目した。
結果:透明性やアカウンタビリティ,堅牢性といった技術的特性を定義する上で,大きな進展が見られたが,この結果から重要なギャップが明らかとなった。
現在の研究はしばしば、社会的・倫理的な考慮を犠牲にして、技術的な正確さを強調している。
AIシステムの社会技術的性質はいまだ解明されておらず、信頼感はそれを定義する力を持つ人々によって形作られた議論された概念として現れます。
結論: 技術的厳密さと社会的、文化的、制度的な配慮を組み合わせる学際的アプローチは、信頼できるAIの推進に不可欠である。
我々は、AIシステムと社会の複雑な相互作用に真に対処し、最終的にはすべての利害関係者に利益をもたらす責任ある技術開発を促進する包括的枠組みを採用するための、AI倫理コミュニティのための実用的な措置を提案する。
関連論文リスト
- Frontier AI Auditing: Toward Rigorous Third-Party Assessment of Safety and Security Practices at Leading AI Companies [57.521647436515785]
私たちはフロンティアAIの監査を、フロンティアAI開発者の安全とセキュリティに関する主張の厳格な第三者による検証として定義しています。
本稿では,AI保証レベル(AAL-1からAAL-4)について紹介する。
論文 参考訳(メタデータ) (2026-01-16T18:44:09Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - A Study on the Framework for Evaluating the Ethics and Trustworthiness of Generative AI [6.664765506069473]
ChatGPTのような生成AIは、驚くべき革新的な可能性を示している。
これは同時に、偏見、有害性、著作権侵害、プライバシー侵害、幻覚などの倫理的・社会的懸念を提起する。
本研究は,社会的影響を反映した新たな人間中心基準の必要性を強調した。
論文 参考訳(メタデータ) (2025-08-30T07:38:07Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Bridging Ethical Principles and Algorithmic Methods: An Alternative Approach for Assessing Trustworthiness in AI Systems [0.0]
本稿では,Trustworthy AIの倫理的要素とPageRankとTrustRankのアルゴリズム的プロセスを組み合わせた評価手法を提案する。
目標は、フィールドで広く普及する自己評価技術に固有の主観性を最小化するアセスメントフレームワークを確立することである。
論文 参考訳(メタデータ) (2025-06-28T06:27:30Z) - Is Trust Correlated With Explainability in AI? A Meta-Analysis [0.0]
我々は、AI説明可能性と信頼の関係を探るため、既存の文献を網羅的に調査する。
我々の分析では、90の研究データを取り入れた結果、AIシステムの説明可能性と彼らが与える信頼との間に統計的に有意だが適度な正の相関関係が明らかとなった。
この研究は、特に説明責任の促進と、医療や司法などの重要な領域におけるユーザの信頼の促進において、社会技術的に幅広い影響を強調している。
論文 参考訳(メタデータ) (2025-04-16T23:30:55Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。