論文の概要: Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India
- arxiv url: http://arxiv.org/abs/2509.09508v1
- Date: Thu, 11 Sep 2025 14:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.428155
- Title: Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India
- Title(参考訳): 電気通信法と政策にAIインシデントを報告:インドからの洞察
- Authors: Avinash Agarwal, Manisha J. Nene,
- Abstract要約: 本稿では,電気通信AIインシデントの詳細と正確な定義を紹介する。
独自の規制上の懸念として認識されていると論じている。
本稿では、インドの既存のテレコムガバナンスにAIインシデントレポートを統合することに焦点を当てたポリシーレコメンデーションを提案する。
- 参考スコア(独自算出の注目度): 0.6875312133832078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of artificial intelligence (AI) into telecommunications infrastructure introduces novel risks, such as algorithmic bias and unpredictable system behavior, that fall outside the scope of traditional cybersecurity and data protection frameworks. This paper introduces a precise definition and a detailed typology of telecommunications AI incidents, establishing them as a distinct category of risk that extends beyond conventional cybersecurity and data protection breaches. It argues for their recognition as a distinct regulatory concern. Using India as a case study for jurisdictions that lack a horizontal AI law, the paper analyzes the country's key digital regulations. The analysis reveals that India's existing legal instruments, including the Telecommunications Act, 2023, the CERT-In Rules, and the Digital Personal Data Protection Act, 2023, focus on cybersecurity and data breaches, creating a significant regulatory gap for AI-specific operational incidents, such as performance degradation and algorithmic bias. The paper also examines structural barriers to disclosure and the limitations of existing AI incident repositories. Based on these findings, the paper proposes targeted policy recommendations centered on integrating AI incident reporting into India's existing telecom governance. Key proposals include mandating reporting for high-risk AI failures, designating an existing government body as a nodal agency to manage incident data, and developing standardized reporting frameworks. These recommendations aim to enhance regulatory clarity and strengthen long-term resilience, offering a pragmatic and replicable blueprint for other nations seeking to govern AI risks within their existing sectoral frameworks.
- Abstract(参考訳): 人工知能(AI)を通信インフラに統合することで、アルゴリズムバイアスや予測不可能なシステムの振る舞いといった、従来のサイバーセキュリティやデータ保護フレームワークの範囲外にある新たなリスクがもたらされる。
本稿では,従来型のサイバーセキュリティやデータ保護違反を超越したリスクカテゴリとして,通信AIインシデントの正確な定義と詳細なタイプロジについて紹介する。
独自の規制上の懸念として認識されていると論じている。
インドを水平AI法を欠いた司法管轄区域のケーススタディとして用いて、この論文は国の重要なデジタル規制を分析している。
この分析は、2023年の電気通信法、CERT-Inルール、2023年のデジタル個人データ保護法など、インドの既存の法的手段がサイバーセキュリティとデータ漏洩に焦点を当てており、パフォーマンス劣化やアルゴリズムバイアスなど、AI固有の運用インシデントに対する重大な規制上のギャップを生じさせていることを明らかにしている。
また、既存のAIインシデントリポジトリの公開と制限に関する構造的障壁についても検討する。
これらの知見に基づき、インドの既存のテレコムガバナンスにAIインシデントレポートを統合することに焦点を当てた、ターゲットとなるポリシーレコメンデーションを提案する。
主な提案には、リスクの高いAI障害の報告を強制すること、インシデントデータを管理するためのnodal agencyとして既存の政府機関を指定すること、標準化されたレポートフレームワークの開発などが含まれる。
これらの勧告は、規制の明確性を高め、長期的なレジリエンスを強化することを目的としており、既存のセクターフレームワーク内でAIリスクを管理しようとする他の国に対して、実用的でレプリカ可能な青写真を提供する。
関連論文リスト
- Cybercrime and Computer Forensics in Epoch of Artificial Intelligence in India [0.0]
この研究は、サイバー脅威ベクトルと法医学的自動化機構の両方として機能する、AIの「デュアルユース」ジレンマを精査する。
機械学習はパターン認識において高い精度を提供するが、データ中毒やアルゴリズムバイアスに関する脆弱性を導入する。
発見は、法のデータ最小化原則と法定データ保持要件の間に重要な緊張関係を浮き彫りにする。
論文 参考訳(メタデータ) (2025-12-16T19:39:22Z) - AI Regulation in Telecommunications: A Cross-Jurisdictional Legal Study [0.6117371161379207]
本論では,10ヶ国における政策指標の比較法的研究を行う。
通信、サイバーセキュリティ、データ保護、AI法が、インフラにおけるAI関連のリスクにどのようにアプローチするかを検討する。
論文 参考訳(メタデータ) (2025-11-27T08:30:12Z) - International AI Safety Report 2025: Second Key Update: Technical Safeguards and Risk Management [115.92752850425272]
2025年の国際AI安全レポートの第2の更新は、この1年で汎用AIリスク管理の新しい展開を評価している。
研究者、公共機関、AI開発者が汎用AIのリスク管理にどのようにアプローチしているかを調べる。
論文 参考訳(メタデータ) (2025-11-25T03:12:56Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Standardised schema and taxonomy for AI incident databases in critical digital infrastructure [2.209921757303168]
重要なデジタルインフラストラクチャへの人工知能の迅速な展開は、重大なリスクをもたらす。
既存のデータベースには、一貫性のあるデータ収集と分析に必要な標準化された構造だけでなく、粒度も欠けている。
この研究は、AIインシデントデータベースのための標準化されたスキーマと分類を提案し、セクタ全体でAIインシデントの詳細と構造化されたドキュメントを可能にする。
論文 参考訳(メタデータ) (2025-01-28T15:59:01Z) - Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。