論文の概要: AI Regulation in Telecommunications: A Cross-Jurisdictional Legal Study
- arxiv url: http://arxiv.org/abs/2511.22211v1
- Date: Thu, 27 Nov 2025 08:30:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.458243
- Title: AI Regulation in Telecommunications: A Cross-Jurisdictional Legal Study
- Title(参考訳): 電気通信におけるAI規制
- Authors: Avinash Agarwal, Peeyush Agarwal, Manisha J. Nene,
- Abstract要約: 本論では,10ヶ国における政策指標の比較法的研究を行う。
通信、サイバーセキュリティ、データ保護、AI法が、インフラにおけるAI関連のリスクにどのようにアプローチするかを検討する。
- 参考スコア(独自算出の注目度): 0.6117371161379207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Artificial Intelligence (AI) becomes increasingly embedded in critical digital infrastructure, including telecommunications, its integration introduces new risks that existing regulatory frameworks are ill-prepared to address. This paper conducts a comparative legal study of policy instruments across ten countries, examining how telecom, cybersecurity, data protection, and AI laws approach AI-related risks in infrastructure. The study finds that regulatory responses remain siloed, with minimal coordination across these domains. Most frameworks still prioritize traditional cybersecurity and data protection concerns, offering limited recognition of AI-specific vulnerabilities such as model drift, opaque decision-making, and algorithmic bias. Telecommunications regulations, in particular, exhibit little integration of AI considerations, despite AI systems increasingly supporting critical network operations. The paper identifies a governance gap where oversight remains fragmented and reactive, while AI reshapes the digital infrastructure. It provides a foundation for more coherent and anticipatory regulatory strategies spanning technological and institutional boundaries.
- Abstract(参考訳): 人工知能(AI)が通信を含む重要なデジタルインフラにますます浸透するにつれ、既存の規制フレームワークが対応できない新たなリスクがもたらされる。
本稿では,10カ国を対象に,通信,サイバーセキュリティ,データ保護,およびAI法が,インフラストラクチャにおけるAI関連リスクにどのようにアプローチするかを,比較法的に検討する。
研究によると、規制の反応はサイロ化され続けており、これらの領域間の調整は最小限である。
ほとんどのフレームワークは従来型のサイバーセキュリティとデータ保護の懸念を優先し、モデルドリフトや不透明な意思決定、アルゴリズムバイアスといったAI固有の脆弱性を限定的に認識する。
特に電気通信規制は、重要なネットワーク操作をますますサポートするAIシステムにもかかわらず、AIの考慮事項をほとんど統合していない。
論文では、監視が断片化され、リアクティブのままであるガバナンスギャップを特定し、AIはデジタルインフラストラクチャを再認識する。
技術と制度の境界にまたがるより一貫性と予測的な規制戦略の基礎を提供する。
関連論文リスト
- Digital Sovereignty Control Framework for Military AI-based Cyber Security [0.0]
この記事では、軍事サイバーセキュリティのためのデータとAIベースのモデルのデジタル主権制御を定義し、評価することを目的とする。
この枠組みは、デジタル主権とデータ主権の概念に基づいており、機密性の高い防衛資産を保護することを目的としている。
同時に、このフレームワークは、戦略的、法的に考慮された連合軍間の相互運用性の課題に対処する。
論文 参考訳(メタデータ) (2025-09-16T13:29:26Z) - Incorporating AI Incident Reporting into Telecommunications Law and Policy: Insights from India [0.6875312133832078]
本稿では,電気通信AIインシデントの詳細と正確な定義を紹介する。
独自の規制上の懸念として認識されていると論じている。
本稿では、インドの既存のテレコムガバナンスにAIインシデントレポートを統合することに焦点を当てたポリシーレコメンデーションを提案する。
論文 参考訳(メタデータ) (2025-09-11T14:50:41Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Decoding the Black Box: Integrating Moral Imagination with Technical AI Governance [0.0]
我々は、防衛、金融、医療、教育といった高度な領域に展開するAI技術を規制するために設計された包括的なフレームワークを開発する。
本手法では,厳密な技術的分析,定量的リスク評価,規範的評価を併用して,システム的脆弱性を暴露する。
論文 参考訳(メタデータ) (2025-03-09T03:11:32Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。