論文の概要: Astra: AI Safety, Trust, & Risk Assessment
- arxiv url: http://arxiv.org/abs/2602.17357v1
- Date: Thu, 19 Feb 2026 13:37:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.043865
- Title: Astra: AI Safety, Trust, & Risk Assessment
- Title(参考訳): Astra: AIの安全性、信頼、リスクアセスメント
- Authors: Pranav Aggarwal, Ananya Basotia, Debayan Gupta, Rahul Kulkarni, Shalini Kapoor, Kashyap J., A. Mukundan, Aishwarya Pokhriyal, Anirban Sen, Aryan Shah, Aalok Thakkar,
- Abstract要約: 本稿は、既存のグローバルAI安全フレームワークが、インドのユニークな社会技術状況に対して文脈的に盲目を示すことを主張する。
人口15億人と大規模な非公式経済により、インドのAI統合は、カストベースの差別、言語話者の排除、インフラの故障といった特定の課題に直面している。
我々は,ボトムアップ・インダクティブ・プロセスを通じてリスクを分類する実験的なAI安全リスクデータベースであるASTRAを紹介した。
- 参考スコア(独自算出の注目度): 6.211663858984459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper argues that existing global AI safety frameworks exhibit contextual blindness towards India's unique socio-technical landscape. With a population of 1.5 billion and a massive informal economy, India's AI integration faces specific challenges such as caste-based discrimination, linguistic exclusion of vernacular speakers, and infrastructure failures in low-connectivity rural zones, that are frequently overlooked by Western, market-centric narratives. We introduce ASTRA, an empirically grounded AI Safety Risk Database designed to categorize risks through a bottom-up, inductive process. Unlike general taxonomies, ASTRA defines AI Safety Risks specifically as hazards stemming from design flaws such as skewed training sets or lack of guardrails that can be mitigated through technical iteration or architectural changes. This framework employs a tripartite causal taxonomy to evaluate risks based on their implementation timing (development, deployment, or usage), the responsible entity (the system or the user), and the nature of the intent (unintentional vs. intentional). Central to the research is a domain-agnostic ontology that organizes 37 leaf-level risk classes into two primary meta-categories: Social Risks and Frontier/Socio-Structural Risks. By focusing initial efforts on the Education and Financial Lending sectors, the paper establishes a scalable foundation for a "living" regulatory utility intended to evolve alongside India's expanding AI ecosystem.
- Abstract(参考訳): 本稿は、既存のグローバルAI安全フレームワークが、インドのユニークな社会技術状況に対して文脈的に盲目を示すことを主張する。
人口15億の人口と大規模な非公式経済により、インドのAI統合は、西欧の市場中心の物語によってしばしば見過ごされる、カストベースの差別、言語話者の言語的排除、低接続の農村地帯におけるインフラストラクチャー障害といった、特定の課題に直面している。
我々は,ボトムアップ・インダクティブ・プロセスを通じてリスクを分類する実験的なAI安全リスクデータベースであるASTRAを紹介した。
一般的な分類学とは異なり、ASTRAはAIの安全性リスクを、歪んだトレーニングセットや技術的イテレーションやアーキテクチャの変更によって緩和されるガードレールの欠如といった設計上の欠陥から生じるハザードとして定義している。
このフレームワークは、実装のタイミング(開発、デプロイメント、利用)、責任ある実体(システムまたはユーザ)、意図の性質(意図的対意図的)に基づいてリスクを評価するために、三部構成の因果分類を用いる。
この研究の中心は、37の葉レベルリスククラスを2つの主要なメタカテゴリ(社会リスクとフロンティア/社会構造リスク)に分類するドメインに依存しないオントロジーである。
この論文は、教育とファイナンシャル・レンディングの分野に最初の取り組みを集中させることで、インドの拡大するAIエコシステムと共に進化することを目的とした、"生きた"規制ユーティリティのスケーラブルな基盤を確立する。
関連論文リスト
- Assessing the Case for Africa-Centric AI Safety Evaluations [0.0]
我々はアフリカ中心の深刻なAIリスクを特定するための分類法を開発した。
我々は、アフリカの文脈に対する脅威モデリング戦略を提案する。
資源制約下での評価を行うための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2026-02-14T13:04:52Z) - The Role of Risk Modeling in Advanced AI Risk Management [33.357295564462284]
急速に進歩する人工知能(AI)システムは、新しい、不確実で、潜在的に破滅的なリスクをもたらす。
これらのリスクを管理するには、厳格なリスクモデリングの基盤となる成熟したリスク管理インフラストラクチャが必要です。
先進的なAIガバナンスは、同様の二重アプローチを採用するべきであり、検証可能な、確実に安全なAIアーキテクチャが緊急に必要である、と私たちは主張する。
論文 参考訳(メタデータ) (2025-12-09T15:37:33Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - A Taxonomy of Systemic Risks from General-Purpose AI [2.5956465292067867]
我々は、システム的リスクを、社会全体や経済に影響を及ぼす大規模な脅威と見なしている。
システム的リスクの主な源は、知識ギャップ、害を認識するための課題、そしてAI開発における予測不可能な軌道から生まれる。
本稿では,汎用AIの大規模負の社会的影響を理解し,対処するための構造的基盤を提供することで,AIの安全性研究に寄与する。
論文 参考訳(メタデータ) (2024-11-24T22:16:18Z) - The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence [35.77247656798871]
人工知能(AI)によって引き起こされるリスクは、学者、監査人、政策立案者、AI企業、そして一般大衆にかなり懸念されている。
AIリスクに対する共通理解の欠如は、包括的に議論し、研究し、それに反応する能力を妨げる可能性がある。
本稿では、共通の参照フレームとして機能するAIリスクリポジトリを作成することで、このギャップに対処する。
論文 参考訳(メタデータ) (2024-08-14T10:32:06Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。