論文の概要: Trust and Transparency in AI: Industry Voices on Data, Ethics, and Compliance
- arxiv url: http://arxiv.org/abs/2509.22709v1
- Date: Tue, 23 Sep 2025 20:58:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:39:23.388248
- Title: Trust and Transparency in AI: Industry Voices on Data, Ethics, and Compliance
- Title(参考訳): AIにおける信頼と透明性 - データ、倫理、コンプライアンスに関する業界の声
- Authors: Louise McCormack, Diletta Huyskes, Dave Lewis, Malika Bendechache,
- Abstract要約: 業界におけるAIの急速な採用は、倫理的評価フレームワークを上回っている。
本稿では,信頼に値するAIの開発と評価における実践的アプローチと課題について考察する。
- 参考スコア(独自算出の注目度): 0.7099737083842057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The EU Artificial Intelligence (AI) Act directs businesses to assess their AI systems to ensure they are developed in a way that is human-centered and trustworthy. The rapid adoption of AI in the industry has outpaced ethical evaluation frameworks, leading to significant challenges in accountability, governance, data quality, human oversight, technological robustness, and environmental and societal impacts. Through structured interviews with fifteen industry professionals, paired with a literature review conducted on each of the key interview findings, this paper investigates practical approaches and challenges in the development and assessment of Trustworthy AI (TAI). The findings from participants in our study, and the subsequent literature reviews, reveal complications in risk management, compliance and accountability, which are exacerbated by a lack of transparency, unclear regulatory requirements and a rushed implementation of AI. Participants reported concerns that technological robustness and safety could be compromised by model inaccuracies, security vulnerabilities, and an overreliance on AI without proper safeguards in place. Additionally, the negative environmental and societal impacts of AI, including high energy consumption, political radicalisation, loss of culture and reinforcement of social inequalities, are areas of concern. There is a pressing need not just for risk mitigation and TAI evaluation within AI systems but for a wider approach to developing an AI landscape that aligns with the social and cultural values of the countries adopting those technologies.
- Abstract(参考訳): EU人工知能(AI)法は、企業がAIシステムを評価し、人間中心で信頼性の高い方法で開発するように指示する。
業界におけるAIの急速な採用は倫理的評価フレームワークを上回り、説明責任、ガバナンス、データ品質、人間の監督、技術的堅牢性、環境と社会的影響において大きな課題を引き起こしている。
本稿では,15人の業界専門家との構造化インタビューを通じて,それぞれの主要なインタビュー結果について実施した文献レビューと組み合わせて,信頼に値するAI(TAI)の開発と評価における実践的アプローチと課題について検討する。
この研究の参加者の発見とその後の文献レビューは、透明性の欠如、不明確な規制要件、AIの急激な実装によって悪化するリスク管理、コンプライアンス、説明責任の複雑さを明らかにした。
参加者は、技術的堅牢性と安全性が、モデル不正確さ、セキュリティ上の脆弱性、適切な安全を守ることなくAIへの過度な信頼によって損なわれる可能性があるという懸念を報告した。
さらに、高エネルギー消費、政治的急進化、文化の喪失、社会的不平等の強化など、AIの負の環境と社会的影響も懸念されている。
リスク軽減とAIシステムにおけるTAI評価だけでなく、これらの技術を採用する国の社会的・文化的価値に合わせて、AIのランドスケープを開発するためのより広範なアプローチも必要です。
関連論文リスト
- A Study on the Framework for Evaluating the Ethics and Trustworthiness of Generative AI [6.664765506069473]
ChatGPTのような生成AIは、驚くべき革新的な可能性を示している。
これは同時に、偏見、有害性、著作権侵害、プライバシー侵害、幻覚などの倫理的・社会的懸念を提起する。
本研究は,社会的影響を反映した新たな人間中心基準の必要性を強調した。
論文 参考訳(メタデータ) (2025-08-30T07:38:07Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - The Necessity of AI Audit Standards Boards [0.0]
我々は、監査基準の作成は不十分であるだけでなく、無害で一貫性のない基準を広めることによって積極的に有害であると主張している。
代わりに、監査方法と標準を開発・更新する責任を持つAI監査基準委員会(AI Audit Standards Board)の設立を提案する。
論文 参考訳(メタデータ) (2024-04-11T15:08:24Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。