論文の概要: From Bias to Accountability: How the EU AI Act Confronts Challenges in European GeoAI Auditing
- arxiv url: http://arxiv.org/abs/2505.18236v1
- Date: Fri, 23 May 2025 13:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.254393
- Title: From Bias to Accountability: How the EU AI Act Confronts Challenges in European GeoAI Auditing
- Title(参考訳): バイアスから説明責任へ:EUのAI法が欧州GeoAI監査の課題を克服する方法
- Authors: Natalia Matuszczyk, Craig R. Barnes, Rohit Gupta, Bulent Ozel, Aniket Mitra,
- Abstract要約: この研究は、GeoAIバイアスエビデンスをEU AI Actコンテキストに初めて統合したものだ。
この法律の高リスク基準を適用することで、広くデプロイされたGeoAIアプリケーションが高リスクシステムとして適していることを示す。
この分析は探索的ではあるが、2027年以前には、よく計算された欧州のデータセットでさえ、定期的なバイアス監査を採用するべきであることを示唆している。
- 参考スコア(独自算出の注目度): 0.6061201384450973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias in geospatial artificial intelligence (GeoAI) models has been documented, yet the evidence is scattered across narrowly focused studies. We synthesize this fragmented literature to provide a concise overview of bias in GeoAI and examine how the EU's Artificial Intelligence Act (EU AI Act) shapes audit obligations. We discuss recurring bias mechanisms, including representation, algorithmic and aggregation bias, and map them to specific provisions of the EU AI Act. By applying the Act's high-risk criteria, we demonstrate that widely deployed GeoAI applications qualify as high-risk systems. We then present examples of recent audits along with an outline of practical methods for detecting bias. As far as we know, this study represents the first integration of GeoAI bias evidence into the EU AI Act context, by identifying high-risk GeoAI systems and mapping bias mechanisms to the Act's Articles. Although the analysis is exploratory, it suggests that even well-curated European datasets should employ routine bias audits before 2027, when the AI Act's high-risk provisions take full effect.
- Abstract(参考訳): 地理空間人工知能(GeoAI)モデルのバイアスが記録されているが、その証拠は狭義の研究に散在している。
我々は、この断片化された文献を合成し、GeoAIにおけるバイアスの簡潔な概要を提供し、EUの人工知能法(EU AI Act)が監査義務をどのように形成するかを検討する。
我々は、表現、アルゴリズム、集約バイアスを含む繰り返しバイアスメカニズムについて議論し、それらをEU AI Actの特定の規定にマッピングする。
この法律の高リスク基準を適用することで、広くデプロイされたGeoAIアプリケーションが高リスクシステムとして適していることを示す。
次に,近年の監査事例と,バイアス検出の実践的方法の概要を示す。
我々の知る限り、この研究は、リスクの高いGeoAIシステムを特定し、法の条文にバイアスのメカニズムをマッピングすることで、GeoAIバイアスの証拠をEU AI Actコンテキストに初めて統合したものです。
この分析は探索的ではあるが、2027年、AI法のリスクの高い規定が完全に効力を持つようになるまでには、よく計算された欧州のデータセットでさえ、定期的なバイアス監査を採用するべきであることを示唆している。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Advancing Legal Reasoning: The Integration of AI to Navigate
Complexities and Biases in Global Jurisprudence with Semi-Automated
Arbitration Processes (SAAPs) [0.0]
本研究は,米国,英国,ルワンダ,スウェーデン,香港の5カ国にまたがる裁判所判決の分析に焦点を当てた。
本稿では,高度言語モデル(ALM)と新たに導入された人間-AI協調フレームワークを組み込むことで,基礎理論に基づく研究設計をAIで分析することを目的とする。
論文 参考訳(メタデータ) (2024-02-06T16:47:34Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Counter Turing Test CT^2: AI-Generated Text Detection is Not as Easy as
You May Think -- Introducing AI Detectability Index [9.348082057533325]
AI生成テキスト検出(AGTD)はすでに研究で注目を集めているトピックとして現れている。
本稿では,既存のAGTD手法の脆弱性を総合的に評価することを目的とした手法のベンチマークであるCounter Turing Test (CT2)を紹介する。
論文 参考訳(メタデータ) (2023-10-08T06:20:36Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。