論文の概要: DIRF: A Framework for Digital Identity Protection and Clone Governance in Agentic AI Systems
- arxiv url: http://arxiv.org/abs/2508.01997v1
- Date: Mon, 04 Aug 2025 02:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.147556
- Title: DIRF: A Framework for Digital Identity Protection and Clone Governance in Agentic AI Systems
- Title(参考訳): DIRF:エージェントAIシステムにおけるデジタルID保護とクローンガバナンスのためのフレームワーク
- Authors: Hammad Atta, Muhammad Zeeshan Baig, Yasir Mehmood, Nadeem Shahzad, Ken Huang, Muhammad Aziz Ul Haq, Muhammad Awais, Kamal Ahmed, Anthony Green,
- Abstract要約: デジタルクローン、洗練された偽造、およびアイデンティティ関連データの不正な収益化は、個人アイデンティティの完全性に重大な脅威をもたらす。
これらのリスクを緩和するには、堅牢なAI生成コンテンツ検出システム、強化された法的枠組み、倫理的ガイドラインの開発が必要である。
本稿では, 行動的, 生体的, 個性に基づくデジタル類似性属性を保護するために設計された, 構造化されたセキュリティおよびガバナンスモデルであるDigital Identity Rights Framework(DIRF)を紹介する。
- 参考スコア(独自算出の注目度): 2.4147135153416195
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid advancement and widespread adoption of generative artificial intelligence (AI) pose significant threats to the integrity of personal identity, including digital cloning, sophisticated impersonation, and the unauthorized monetization of identity-related data. Mitigating these risks necessitates the development of robust AI-generated content detection systems, enhanced legal frameworks, and ethical guidelines. This paper introduces the Digital Identity Rights Framework (DIRF), a structured security and governance model designed to protect behavioral, biometric, and personality-based digital likeness attributes to address this critical need. Structured across nine domains and 63 controls, DIRF integrates legal, technical, and hybrid enforcement mechanisms to secure digital identity consent, traceability, and monetization. We present the architectural foundations, enforcement strategies, and key use cases supporting the need for a unified framework. This work aims to inform platform builders, legal entities, and regulators about the essential controls needed to enforce identity rights in AI-driven systems.
- Abstract(参考訳): 生成人工知能(AI)の急速な進歩と普及は、デジタルクローニング、洗練された偽造、およびアイデンティティ関連データの不正な収益化など、個人のアイデンティティの完全性に重大な脅威をもたらす。
これらのリスクを緩和するには、堅牢なAI生成コンテンツ検出システム、強化された法的枠組み、倫理的ガイドラインの開発が必要である。
本稿では、この重要なニーズに対応するために、行動的、生体的、個性に基づくデジタル類似性属性を保護するために設計された、構造化されたセキュリティおよびガバナンスモデルであるDigital Identity Rights Framework(DIRF)を紹介する。
9つのドメインと63のコントロールにまたがって構築されたDIRFは、法的、技術的、ハイブリッドな執行機構を統合して、デジタルIDの同意、トレーサビリティ、収益化を確保する。
我々は、統一されたフレームワークの必要性を支持するアーキテクチャの基礎、執行戦略、および主要なユースケースを提示する。
この研究は、AI駆動システムにおけるアイデンティティの権利を強制するために必要なコントロールについて、プラットフォームビルダー、法的エンティティ、規制当局に通知することを目的としている。
関連論文リスト
- Agentic Satellite-Augmented Low-Altitude Economy and Terrestrial Networks: A Survey on Generative Approaches [76.12691010182802]
本調査は,衛星搭載低高度経済と地上ネットワーク(SLAETN)におけるエージェント人工知能(AI)の実現に焦点をあてる。
SLAETNのアーキテクチャと特徴を紹介するとともに,衛星,空中,地上コンポーネントの統合において生じる課題を分析する。
これらのモデルが,コミュニケーション強化,セキュリティとプライバシ保護,インテリジェントな衛星タスクという,3つの領域にわたるエージェント機能をどのように強化するかを検討する。
論文 参考訳(メタデータ) (2025-07-19T14:07:05Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [115.71019708491386]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Reasoning Under Threat: Symbolic and Neural Techniques for Cybersecurity Verification [0.0]
本調査では,サイバーセキュリティにおける自動推論の役割について概観する。
我々は、SOTAツールとフレームワークを調べ、ニューラルシンボリック推論のためのAIとの統合を調査し、重要な研究ギャップを浮き彫りにする。
本稿は,安全なシステム開発を促進することを目的とした,先進的な研究の方向性の集合をまとめてまとめる。
論文 参考訳(メタデータ) (2025-03-27T11:41:53Z) - Zero-to-One IDV: A Conceptual Model for AI-Powered Identity Verification [0.0]
本稿では,AIを用いたIDV製品開発のための総合的な概念フレームワークであるZero to One'を紹介する。
堅牢な概念モデルの必要性をコンテキスト化するために、アイデンティティ検証の進化と現在の規制の状況について詳述する。
このフレームワークは、セキュリティ、プライバシ、UX、規制コンプライアンスに対処し、効率的なIDVソリューションを構築するための構造化されたアプローチを提供する。
論文 参考訳(メタデータ) (2025-03-11T04:20:02Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Combining Decentralized IDentifiers with Proof of Membership to Enable Trust in IoT Networks [44.99833362998488]
本稿は、同じ管理ドメイン下でのIoTノードの代替(相互)認証プロセスを提案し、議論する。
第一の考え方は、分散ID(Decentralized IDentifier, DID)に基づく秘密鍵所有権の検証と、DIDが進化した信頼された集合に属するという証明の検証を組み合わせることである。
論文 参考訳(メタデータ) (2023-10-12T09:33:50Z) - Comparative Analysis of Technical and Legal Frameworks of Various
National Digial Identity Solutions [2.6217304977339473]
本研究の目的は,政策立案者,ソフトウェア開発者,利用者がデジタルID管理システムの設計,実装,利用の課題を理解するのを支援することである。
論文 参考訳(メタデータ) (2023-10-02T09:01:22Z) - AI and Democracy's Digital Identity Crisis [0.0]
プライバシー保護のアイデンティティ証明は、偽造の事例を劇的に減らし、偽情報を識別しやすくし、潜在的に妨げる可能性がある。
本稿では, 政府, バイオメトリック, フェデレーション, 信頼に基づくWebなど, 検査のタイプについて論じる。
これらのシステムは、悪意あるアクターの手にAIが作用する民主主義に対する脅威のいくつかを防ぎ、アイデンティティを認証するための最良のアプローチだと考えています。
論文 参考訳(メタデータ) (2023-09-25T14:15:18Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。