論文の概要: A Study on the Framework for Evaluating the Ethics and Trustworthiness of Generative AI
- arxiv url: http://arxiv.org/abs/2509.00398v1
- Date: Sat, 30 Aug 2025 07:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.215043
- Title: A Study on the Framework for Evaluating the Ethics and Trustworthiness of Generative AI
- Title(参考訳): 生成AIの倫理と信頼性を評価する枠組みに関する研究
- Authors: Cheonsu Jeong, Seunghyun Lee, Sunny Jeong, Sungsu Kim,
- Abstract要約: ChatGPTのような生成AIは、驚くべき革新的な可能性を示している。
これは同時に、偏見、有害性、著作権侵害、プライバシー侵害、幻覚などの倫理的・社会的懸念を提起する。
本研究は,社会的影響を反映した新たな人間中心基準の必要性を強調した。
- 参考スコア(独自算出の注目度): 6.664765506069473
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study provides an in_depth analysis of the ethical and trustworthiness challenges emerging alongside the rapid advancement of generative artificial intelligence (AI) technologies and proposes a comprehensive framework for their systematic evaluation. While generative AI, such as ChatGPT, demonstrates remarkable innovative potential, it simultaneously raises ethical and social concerns, including bias, harmfulness, copyright infringement, privacy violations, and hallucination. Current AI evaluation methodologies, which mainly focus on performance and accuracy, are insufficient to address these multifaceted issues. Thus, this study emphasizes the need for new human_centered criteria that also reflect social impact. To this end, it identifies key dimensions for evaluating the ethics and trustworthiness of generative AI_fairness, transparency, accountability, safety, privacy, accuracy, consistency, robustness, explainability, copyright and intellectual property protection, and source traceability and develops detailed indicators and assessment methodologies for each. Moreover, it provides a comparative analysis of AI ethics policies and guidelines in South Korea, the United States, the European Union, and China, deriving key approaches and implications from each. The proposed framework applies across the AI lifecycle and integrates technical assessments with multidisciplinary perspectives, thereby offering practical means to identify and manage ethical risks in real_world contexts. Ultimately, the study establishes an academic foundation for the responsible advancement of generative AI and delivers actionable insights for policymakers, developers, users, and other stakeholders, supporting the positive societal contributions of AI technologies.
- Abstract(参考訳): 本研究は,創造的人工知能(AI)技術の急速な進歩とともに出現する倫理的・信頼性上の課題を詳細に分析し,その体系的評価のための包括的枠組みを提案する。
ChatGPTのような生成AIは、驚くべき革新的な可能性を示しているが、バイアス、有害性、著作権侵害、プライバシー侵害、幻覚など、倫理的および社会的関心を同時に高める。
現在のAI評価手法は、主に性能と精度に重点を置いているが、これらの多面的問題に対処するには不十分である。
そこで本研究では,社会的影響を反映した新たな人間中心基準の必要性を強調した。
この目的のために、生成的AI_fairness、透明性、説明責任、安全性、プライバシー、正確性、堅牢性、説明可能性、著作権および知的財産保護の倫理と信頼性を評価するための重要な側面を特定し、それぞれについて詳細な指標と評価手法を開発する。
さらに、韓国、米国、欧州連合、中国におけるAI倫理政策とガイドラインの比較分析を提供し、それぞれから重要なアプローチと意味を導き出している。
提案するフレームワークは、AIライフサイクル全体に適用され、技術的評価と多分野の視点を統合することにより、実世界のコンテキストにおける倫理的リスクを特定し管理するための実践的な手段を提供する。
最終的に、この研究は、生成AIの責任ある進歩のための学術的基盤を確立し、政策立案者、開発者、ユーザ、その他の利害関係者に実用的な洞察を提供し、AI技術の肯定的な社会的貢献をサポートする。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - What is Ethical: AIHED Driving Humans or Human-Driven AIHED? A Conceptual Framework enabling the Ethos of AI-driven Higher education [0.6216023343793144]
本研究は,ユネスコとOECDの倫理基準の遵守を保証するために,高次教育における人間駆動型AI(HD-AIHED)フレームワークを紹介する。
この研究は、参加型コシステム、フェーズドヒューマンインテリジェンス、SWOC分析、AI倫理レビューボードを適用して、大学やHE機関のAI準備とガバナンス戦略を評価する。
論文 参考訳(メタデータ) (2025-02-07T11:13:31Z) - Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges [2.569083526579529]
教育におけるAIは、妥当性、信頼性、透明性、公平性、公平性に関する倫理的な懸念を提起する。
教育者、政策立案者、組織を含む様々な利害関係者は、教育における倫理的AIの使用を保証するガイドラインを開発した。
本稿では,AIを活用したツールの教育測定における倫理的意義について検討する。
論文 参考訳(メタデータ) (2024-06-27T05:28:40Z) - Achieving a Data-driven Risk Assessment Methodology for Ethical AI [3.523208537466128]
我々は,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基盤として,多分野の研究アプローチが重要であることを示す。
本稿では,DRESS-eAIという新たなリスク評価手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:55:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。