論文の概要: Global AI Bias Audit for Technical Governance
- arxiv url: http://arxiv.org/abs/2602.13246v1
- Date: Sun, 01 Feb 2026 19:45:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.585736
- Title: Global AI Bias Audit for Technical Governance
- Title(参考訳): グローバルAIバイアスが技術的ガバナンスに注目
- Authors: Jason Hung,
- Abstract要約: 本稿では,Large Language Models (LLMs) プロジェクトのグローバル監査における探索段階の成果について述べる。
私はGlobal AIデータセット(GAID)プロジェクトを、Llama-3 8Bモデルをストレステストするフレームワークとして使用し、技術的AIガバナンスの認識における地理的および社会経済的バイアスを評価しました。
この結果は、AIの技術知識が高所得地域に集中していることを明らかにし、グローバル・サウスの低所得国は不均等な体系的な情報ギャップに直面している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the outputs of the exploratory phase of a global audit of Large Language Models (LLMs) project. In this exploratory phase, I used the Global AI Dataset (GAID) Project as a framework to stress-test the Llama-3 8B model and evaluate geographic and socioeconomic biases in technical AI governance awareness. By stress-testing the model with 1,704 queries across 213 countries and eight technical metrics, I identified a significant digital barrier and gap separating the Global North and South. The results indicate that the model was only able to provide number/fact responses in 11.4% of its query answers, where the empirical validity of such responses was yet to be verified. The findings reveal that AI's technical knowledge is heavily concentrated in higher-income regions, while lower-income countries from the Global South are subject to disproportionate systemic information gaps. This disparity between the Global North and South poses concerning risks for global AI safety and inclusive governance, as policymakers in underserved regions may lack reliable data-driven insights or be misled by hallucinated facts. This paper concludes that current AI alignment and training processes reinforce existing geoeconomic and geopolitical asymmetries, and urges the need for more inclusive data representation to ensure AI serves as a truly global resource.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) プロジェクトのグローバル監査における探索段階の成果について述べる。
この探索段階において、私はGlobal AI Dataset (GAID) プロジェクトをフレームワークとして、Llama-3 8Bモデルをストレステストし、技術的AIガバナンスの認識における地理的および社会経済的バイアスを評価するために使用しました。
213の国で1,704のクエリと8の技術的メトリクスでモデルをストレステストすることで、私はグローバル・ノースとサウスを分ける重要なデジタル障壁とギャップを特定しました。
結果から,質問応答の11.4%で数/実応答しか得られず,そのような応答の実証的妥当性はまだ検証されていないことが示唆された。
この結果は、AIの技術知識が高所得地域に集中していることを明らかにし、グローバル・サウスの低所得国は不均等な体系的な情報ギャップに直面している。
グローバル・ノース・アンド・サウスのこの格差は、世界規模のAI安全と包括的ガバナンスのリスクを浮き彫りにしている。
本稿は、現在のAIアライメントとトレーニングプロセスが、既存の地政学および地政学の非対称性を強化し、AIが真のグローバルリソースとして機能することを保証するために、より包括的なデータ表現の必要性を示唆している。
関連論文リスト
- The California Report on Frontier AI Policy [110.35302787349856]
フロンティアAIの継続的な進歩は、科学的発見、経済生産性、より広範な社会福祉における大きな進歩の可能性を秘めている。
グローバルAIイノベーションの中心として、カリフォルニアには、フロンティアAIの開発を継続するユニークな機会がある。
報告書は、カリフォルニアがフロンティアAIの使用、評価、ガバナンスにどのようにアプローチするかを知らせる政策原則を導出する。
論文 参考訳(メタデータ) (2025-06-17T23:33:21Z) - Bridging the Data Provenance Gap Across Text, Speech and Video [67.72097952282262]
我々は、人気テキスト、音声、ビデオデータセットのモダリティにまたがって、最大かつ第1級の経時的監査を行う。
私たちの手動分析では、1990年から2024年の間に、608言語、798のソース、659の組織、67の国で4000近い公開データセットをカバーしています。
マルチモーダル機械学習アプリケーションは、トレーニングセットのために、YouTubeのようなWebcrawled、synthetic、ソーシャルメディアプラットフォームに圧倒的に移行した。
論文 参考訳(メタデータ) (2024-12-19T01:30:19Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Global-Liar: Factuality of LLMs over Time and Geographic Regions [3.715487408753612]
本研究は, GPT-3.5 や GPT-4 を含む広く採用されている GPT モデルにおける実測精度, 安定性, バイアスを評価する。
地理的および時間的表現の観点から一意にバランスのとれたデータセットである「Global-Liar」を導入する。
論文 参考訳(メタデータ) (2024-01-31T13:57:24Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Jalisco's multiclass land cover analysis and classification using a
novel lightweight convnet with real-world multispectral and relief data [51.715517570634994]
本稿では、LC分類と解析を行うために、新しい軽量(89kパラメータのみ)畳み込みニューラルネットワーク(ConvNet)を提案する。
本研究では,実世界のオープンデータソースを3つ組み合わせて13のチャネルを得る。
組込み分析は、いくつかのクラスにおいて限られたパフォーマンスを期待し、最も類似したクラスをグループ化する機会を与えてくれます。
論文 参考訳(メタデータ) (2022-01-26T14:58:51Z) - Artificial Intelligence in the Global South (AI4D): Potential and Risks [0.0]
人工知能は世界中のあらゆる地域で利用できるようになった。
本稿では,AI4D(グローバル開発のためのAI)の新たなサブ分野における課題と課題について考察する。
我々は、AIの使用にまつわる多くのリスクがあるが、その潜在的な利点は、グローバル・サウスにおいてそのような技術を設計、開発、実装、使用するための最も適切で効果的な方法に関する詳細な研究と調査を保証するのに十分である、と提案する。
論文 参考訳(メタデータ) (2021-08-23T11:48:31Z) - Artificial Intelligence Ethics: An Inclusive Global Discourse? [0.9208007322096533]
本研究は,AI倫理に関するドキュメンテーションの台頭について考察する。
グローバル・サウスの両国と女性がこの議論で過小評価されているかどうかを調査している。
発見は、AI倫理文書におけるこれらの両方のテーマへの言及の欠如を示している。
グローバル・サウスの両国や女性からの十分なインプットがなければ、そのような倫理的枠組みや基準は差別的であるかもしれない。
論文 参考訳(メタデータ) (2021-08-23T06:08:00Z) - AI in the "Real World": Examining the Impact of AI Deployment in
Low-Resource Contexts [1.90365714903665]
本稿では,低リソース環境における大規模産業ラボによるAIの展開について検討する。
予想外のデプロイメントに影響を与える要因を強調し、グローバルサウスにおけるAIデプロイメントの状況を反映する。
論文 参考訳(メタデータ) (2020-11-28T01:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。