論文の概要: Security, privacy, and agentic AI in a regulatory view: From definitions and distinctions to provisions and reflections
- arxiv url: http://arxiv.org/abs/2603.18914v1
- Date: Thu, 19 Mar 2026 13:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:06.179924
- Title: Security, privacy, and agentic AI in a regulatory view: From definitions and distinctions to provisions and reflections
- Title(参考訳): 規制の観点から見たセキュリティ、プライバシ、エージェントAI:定義と区別から規定とリフレクションへ
- Authors: Shiliang Zhang, Sabita Maharjan,
- Abstract要約: 人工知能(AI)技術の急速な普及は、動的規制の展望につながった。
AIパラダイムが、特にエージェントAIの形で、より大きな自律性へと移行するにつれ、規制規定を明確にすることはますます困難になっている。
本稿は、2024年から2025年の間に発行された24の関連文書を分析して、EU(EU)のAI規制条項をレビューする。
- 参考スコア(独自算出の注目度): 53.468443050795344
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid proliferation of artificial intelligence (AI) technologies has led to a dynamic regulatory landscape, where legislative frameworks strive to keep pace with technical advancements. As AI paradigms shift towards greater autonomy, specifically in the form of agentic AI, it becomes increasingly challenging to precisely articulate regulatory stipulations. This challenge is even more acute in the domains of security and privacy, where the capabilities of autonomous agents often blur traditional legal and technical boundaries. This paper reviews the evolving European Union (EU) AI regulatory provisions via analyzing 24 relevant documents published between 2024 and 2025. From this review, we provide a clarification of critical definitions. We deconstruct the regulatory interpretations of security, privacy, and agentic AI, distinguishing them from closely related concepts to resolve ambiguity. We synthesize the reviewed documents to articulate the current state of regulatory provisions targeting different types of AI, particularly those related to security and privacy aspects. We analyze and reflect on the existing provisions in the regulatory dimension to better align security and privacy obligations with AI and agentic behaviors. These insights serve to inform policymakers, developers, and researchers on the compliance and AI governance in the society with increasing algorithmic agencies.
- Abstract(参考訳): 人工知能(AI)技術の急速な普及により、動的規制の状況が生まれ、立法機関は技術的進歩に追随しようと努力している。
AIパラダイムが、特にエージェントAIの形で、より大きな自律性へと移行するにつれ、規制規定を正確に記述することはますます困難になっている。
この課題は、自律エージェントの能力が従来の法的および技術的な境界を曖昧にする、セキュリティとプライバシの領域でさらに深刻である。
本稿は、2024年から2025年の間に発行された24の関連文書を分析して、EU(EU)のAI規制条項をレビューする。
本稿では,批判的定義の明確化について述べる。
我々は、セキュリティ、プライバシー、エージェントAIの規制解釈を分解し、曖昧さを解決するために、それらと密接に関連する概念を区別する。
レビューされた文書を合成し、さまざまなタイプのAI、特にセキュリティとプライバシの側面に関する規制規定の現状を明確にする。
我々は、セキュリティとプライバシ義務とAIとエージェントの行動との整合性を改善するために、規制の面で既存の規定を分析し、反映する。
これらの洞察は、アルゴリズム機関の増加とともに、社会におけるコンプライアンスとAIガバナンスについて、政策立案者、開発者、研究者に通知するのに役立つ。
関連論文リスト
- Comparing Apples to Oranges: A Taxonomy for Navigating the Global Landscape of AI Regulation [0.0]
我々は,AI規制のグローバルな展望を地図化するための分類法を提案する。
このフレームワークは、欧州連合のAI法、米国執行命令14110、カナダのAIおよびデータ法、中国の生成AIサービスに関する暫定措置、ブラジルのAI法案2338/2023の5つの早期移行者に適用される。
論文 参考訳(メタデータ) (2025-05-19T19:23:41Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Robustness and Cybersecurity in the EU Artificial Intelligence Act [1.433758865948252]
EU人工知能法(英語: EU Artificial Intelligence Act、AIA)は、異なるタイプのAIシステムに対して異なる法的原則を定めている。
我々は、ロバストネスとサイバーセキュリティに関連する条項における法的課題と欠点を特定します。
我々は、堅牢性とサイバーセキュリティがパフォーマンス破壊に対するレジリエンスを要求していることを示します。
論文 参考訳(メタデータ) (2025-02-22T11:12:20Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - The Artificial Intelligence Act: critical overview [0.0]
この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
論文 参考訳(メタデータ) (2024-08-30T21:38:02Z) - Human Oversight of Artificial Intelligence and Technical Standardisation [0.0]
AIのグローバルガバナンスの中で、人間の監視の要件は、いくつかの規制形式に具体化されている。
そのため、欧州連合(EU)の立法府は、人間の監督に対する法的要件を「取り除く」ために、過去よりもはるかに進んでいる。
AI意思決定プロセスにおける人間の位置に関する疑問は、特に注目されるべきである。
論文 参考訳(メタデータ) (2024-07-02T07:43:46Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。