論文の概要: Assessing Human Rights Risks in AI: A Framework for Model Evaluation
- arxiv url: http://arxiv.org/abs/2510.05519v1
- Date: Tue, 07 Oct 2025 02:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.064946
- Title: Assessing Human Rights Risks in AI: A Framework for Model Evaluation
- Title(参考訳): AIにおける人権リスクの評価 - モデル評価のためのフレームワーク
- Authors: Vyoma Raman, Camille Chabot, Betsy Popken,
- Abstract要約: 我々は,人権リスクを計算的に評価する枠組みを提示することにより,アルゴリズム監査の分野に貢献する。
我々は、モデルを評価するアプローチを開発し、モデルが特定の人権にもたらすリスクのレベルについて根拠づけた主張を行う。
人権のアプローチは現実世界の害に重点を置いているため、デプロイされる特定のコンテキストにおいて、AIシステムを評価する必要がある。
- 参考スコア(独自算出の注目度): 0.10195618602298682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Universal Declaration of Human Rights and other international agreements outline numerous inalienable rights that apply across geopolitical boundaries. As generative AI becomes increasingly prevalent, it poses risks to human rights such as non-discrimination, health, and security, which are also central concerns for AI researchers focused on fairness and safety. We contribute to the field of algorithmic auditing by presenting a framework to computationally assess human rights risk. Drawing on the UN Guiding Principles on Business and Human Rights, we develop an approach to evaluating a model to make grounded claims about the level of risk a model poses to particular human rights. Our framework consists of three parts: selecting tasks that are likely to pose human rights risks within a given context, designing metrics to measure the scope, scale, and likelihood of potential risks from that task, and analyzing rights with respect to the values of those metrics. Because a human rights approach centers on real-world harms, it requires evaluating AI systems in the specific contexts in which they are deployed. We present a case study of large language models in political news journalism, demonstrating how our framework helps to design an evaluation and benchmarking different models. We then discuss the implications of the results for the rights of access to information and freedom of thought and broader considerations for adopting this approach.
- Abstract(参考訳): 人権の普遍宣言やその他の国際協定は、地政学的境界を越えて適用される多くの不可侵な権利を概説している。
生成的AIがますます普及するにつれて、非差別、健康、セキュリティといった人権へのリスクが生じる。
我々は,人権リスクを計算的に評価する枠組みを提示することにより,アルゴリズム監査の分野に貢献する。
ビジネスと人権に関する国連指導原則に基づいて、モデルを評価し、モデルが特定の人権にもたらすリスクのレベルについて根拠づけられた主張を行うアプローチを開発します。
我々のフレームワークは、与えられたコンテキスト内で人権上のリスクをもたらす可能性のあるタスクを選択すること、そのタスクから潜在的リスクのスコープ、スケール、可能性を測定するためのメトリクスを設計すること、これらのメトリクスの価値に関する権利を分析すること、の3つの部分から構成される。
人権のアプローチは現実世界の害に重点を置いているため、デプロイされる特定のコンテキストにおいて、AIシステムを評価する必要がある。
本稿では、政治ニュースジャーナリズムにおける大規模言語モデルのケーススタディとして、我々のフレームワークが評価を設計し、異なるモデルをベンチマークするのにどのように役立つかを示す。
次に、情報へのアクセス権と思考の自由に関する結果の意味と、このアプローチを採用するためのより広範な考察について論じる。
関連論文リスト
- RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - A Study on the Framework for Evaluating the Ethics and Trustworthiness of Generative AI [6.664765506069473]
ChatGPTのような生成AIは、驚くべき革新的な可能性を示している。
これは同時に、偏見、有害性、著作権侵害、プライバシー侵害、幻覚などの倫理的・社会的懸念を提起する。
本研究は,社会的影響を反映した新たな人間中心基準の必要性を強調した。
論文 参考訳(メタデータ) (2025-08-30T07:38:07Z) - Foundations for Risk Assessment of AI in Protecting Fundamental Rights [0.5093073566064981]
この章では、AIの質的リスクアセスメントの概念的フレームワークを紹介します。
法的コンプライアンスと基本的権利保護の複雑さに対処し、定義的バランスとデファシブルな推論を反復する。
論文 参考訳(メタデータ) (2025-07-24T10:52:22Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - CValues: Measuring the Values of Chinese Large Language Models from
Safety to Responsibility [62.74405775089802]
LLMのアライメント能力を測定するために,中国初の人的価値評価ベンチマークであるCValuesを提案する。
その結果、我々は10のシナリオにまたがる敵の安全プロンプトを手作業で収集し、8つのドメインから責任プロンプトを誘導した。
以上の結果から,ほとんどの中国のLLMは安全面では良好に機能するが,責任面では十分な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2023-07-19T01:22:40Z) - A Human Rights-Based Approach to Responsible AI [11.823731447853252]
人権の枠組みは、機械と偏見のリスク、人間と権利に対するリスクから、この分野の研究を遠ざけていると我々は主張する。
論文 参考訳(メタデータ) (2022-10-06T04:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。