論文の概要: Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India
- arxiv url: http://arxiv.org/abs/2509.09508v1
- Date: Thu, 11 Sep 2025 14:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.428155
- Title: Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India
- Title(参考訳): 電気通信法と政策にAIインシデントを報告:インドからの洞察
- Authors: Avinash Agarwal, Manisha J. Nene,
- Abstract要約: 本稿では,電気通信AIインシデントの詳細と正確な定義を紹介する。
独自の規制上の懸念として認識されていると論じている。
本稿では、インドの既存のテレコムガバナンスにAIインシデントレポートを統合することに焦点を当てたポリシーレコメンデーションを提案する。
- 参考スコア(独自算出の注目度): 0.6875312133832078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of artificial intelligence (AI) into telecommunications infrastructure introduces novel risks, such as algorithmic bias and unpredictable system behavior, that fall outside the scope of traditional cybersecurity and data protection frameworks. This paper introduces a precise definition and a detailed typology of telecommunications AI incidents, establishing them as a distinct category of risk that extends beyond conventional cybersecurity and data protection breaches. It argues for their recognition as a distinct regulatory concern. Using India as a case study for jurisdictions that lack a horizontal AI law, the paper analyzes the country's key digital regulations. The analysis reveals that India's existing legal instruments, including the Telecommunications Act, 2023, the CERT-In Rules, and the Digital Personal Data Protection Act, 2023, focus on cybersecurity and data breaches, creating a significant regulatory gap for AI-specific operational incidents, such as performance degradation and algorithmic bias. The paper also examines structural barriers to disclosure and the limitations of existing AI incident repositories. Based on these findings, the paper proposes targeted policy recommendations centered on integrating AI incident reporting into India's existing telecom governance. Key proposals include mandating reporting for high-risk AI failures, designating an existing government body as a nodal agency to manage incident data, and developing standardized reporting frameworks. These recommendations aim to enhance regulatory clarity and strengthen long-term resilience, offering a pragmatic and replicable blueprint for other nations seeking to govern AI risks within their existing sectoral frameworks.
- Abstract(参考訳): 人工知能(AI)を通信インフラに統合することで、アルゴリズムバイアスや予測不可能なシステムの振る舞いといった、従来のサイバーセキュリティやデータ保護フレームワークの範囲外にある新たなリスクがもたらされる。
本稿では,従来型のサイバーセキュリティやデータ保護違反を超越したリスクカテゴリとして,通信AIインシデントの正確な定義と詳細なタイプロジについて紹介する。
独自の規制上の懸念として認識されていると論じている。
インドを水平AI法を欠いた司法管轄区域のケーススタディとして用いて、この論文は国の重要なデジタル規制を分析している。
この分析は、2023年の電気通信法、CERT-Inルール、2023年のデジタル個人データ保護法など、インドの既存の法的手段がサイバーセキュリティとデータ漏洩に焦点を当てており、パフォーマンス劣化やアルゴリズムバイアスなど、AI固有の運用インシデントに対する重大な規制上のギャップを生じさせていることを明らかにしている。
また、既存のAIインシデントリポジトリの公開と制限に関する構造的障壁についても検討する。
これらの知見に基づき、インドの既存のテレコムガバナンスにAIインシデントレポートを統合することに焦点を当てた、ターゲットとなるポリシーレコメンデーションを提案する。
主な提案には、リスクの高いAI障害の報告を強制すること、インシデントデータを管理するためのnodal agencyとして既存の政府機関を指定すること、標準化されたレポートフレームワークの開発などが含まれる。
これらの勧告は、規制の明確性を高め、長期的なレジリエンスを強化することを目的としており、既存のセクターフレームワーク内でAIリスクを管理しようとする他の国に対して、実用的でレプリカ可能な青写真を提供する。
関連論文リスト
- AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Standardised schema and taxonomy for AI incident databases in critical digital infrastructure [2.209921757303168]
重要なデジタルインフラストラクチャへの人工知能の迅速な展開は、重大なリスクをもたらす。
既存のデータベースには、一貫性のあるデータ収集と分析に必要な標準化された構造だけでなく、粒度も欠けている。
この研究は、AIインシデントデータベースのための標準化されたスキーマと分類を提案し、セクタ全体でAIインシデントの詳細と構造化されたドキュメントを可能にする。
論文 参考訳(メタデータ) (2025-01-28T15:59:01Z) - Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。