論文の概要: Clio-X: AWeb3 Solution for Privacy-Preserving AI Access to Digital Archives
- arxiv url: http://arxiv.org/abs/2507.08853v1
- Date: Wed, 09 Jul 2025 05:30:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.560906
- Title: Clio-X: AWeb3 Solution for Privacy-Preserving AI Access to Digital Archives
- Title(参考訳): Clio-X: デジタルアーカイブへのプライバシ保護AIアクセスのためのAWeb3ソリューション
- Authors: Victoria L. Lemieux, Rosa Gil, Faith Molosiwa, Qihong Zhou, Binming Li, Roberto Garcia, Luis De La Torre Cubillo, Zehua Wang,
- Abstract要約: 本稿では, 研究者が利用できるようにすると同時に, 機密コンテンツのコントロールを保ちつつ, プライバシー向上技術がアーカイブをいかに支援できるかを考察する。
Clio-Xは、分散化されたプライバシ優先のWeb3ディジタルソリューションで、PETをアーカイブに組み込み、AI対応の参照とアクセスをサポートするように設計されています。
- 参考スコア(独自算出の注目度): 1.3713383780077602
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As archives turn to artificial intelligence to manage growing volumes of digital records, privacy risks inherent in current AI data practices raise critical concerns about data sovereignty and ethical accountability. This paper explores how privacy-enhancing technologies (PETs) and Web3 architectures can support archives to preserve control over sensitive content while still being able to make it available for access by researchers. We present Clio-X, a decentralized, privacy-first Web3 digital solution designed to embed PETs into archival workflows and support AI-enabled reference and access. Drawing on a user evaluation of a medium-fidelity prototype, the study reveals both interest in the potential of the solution and significant barriers to adoption related to trust, system opacity, economic concerns, and governance. Using Rogers' Diffusion of Innovation theory, we analyze the sociotechnical dimensions of these barriers and propose a path forward centered on participatory design and decentralized governance through a Clio-X Decentralized Autonomous Organization. By integrating technical safeguards with community-based oversight, Clio-X offers a novel model to ethically deploy AI in cultural heritage contexts.
- Abstract(参考訳): アーカイブが大量のデジタルレコードを管理するために人工知能に転換するにつれ、現在のAIデータプラクティスに固有のプライバシーリスクは、データの主権と倫理的説明責任に関する重要な懸念を引き起こす。
本稿では, プライバシー向上技術 (PET) と Web3 アーキテクチャが, 研究者によるアクセスが可能でありながら, 機密コンテンツの制御を保ちつつ, アーカイブをいかに支援できるかを考察する。
Clio-Xは、分散化されたプライバシ優先のWeb3ディジタルソリューションで、PETをアーカイブワークフローに埋め込んで、AI対応の参照とアクセスをサポートするように設計されています。
中堅性プロトタイプのユーザ評価に基づいて、この研究は、ソリューションの可能性への関心と、信頼、システム不透明性、経済的な懸念、ガバナンスに関する導入に対する大きな障壁の両方を明らかにしている。
ロジャーズのディフュージョン・オブ・イノベーション理論を用いて、これらの障壁の社会技術的側面を分析し、Clio-Xによる参加型設計と分散化されたガバナンスを中心に進路を提唱する。
技術的保護とコミュニティベースの監視を統合することで、Clio-Xは、文化遺産の文脈でAIを倫理的にデプロイする新しいモデルを提供する。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [115.71019708491386]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - The Critical Canvas--How to regain information autonomy in the AI era [11.15944540843097]
クリティカルキャンバス(Critical Canvas)は、アルゴリズム効率と人事機関のバランスを回復するために設計された情報探索プラットフォームである。
このプラットフォームは、圧倒的な技術的情報を実用的な洞察に変換する。
AIの時代において、より情報に富んだ意思決定と効果的な政策開発を可能にする。
論文 参考訳(メタデータ) (2024-11-25T08:46:02Z) - Reclaiming "Open AI" -- AI Model Serving Can Be Open Access, Yet Monetizable and Loyal [39.63122342758896]
AIの急速な台頭は、オープンウェイトディストリビューションと不透明なAPIベースのアプローチの間で機能する分割モデルとなっている。
このポジションペーパーでは、AIモデルサービスのためのオープンアクセス、マネタイザブル、ロヤル(OML)パラダイムを導入し、厳格に定式化し、推進する。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Privacy-Preserving Decentralized AI with Confidential Computing [0.7893328752331561]
本稿では、Atoma Network内のCC(Confidential Computing)を用いた分散人工知能(AI)におけるプライバシ保護について述べる。
CCはハードウェアベースのTrusted Execution Environments (TEE)を活用して、機密データ処理の分離を提供する。
私たちはどのようにしてTEEをAtomaの分散フレームワークに統合できるかを検討します。
論文 参考訳(メタデータ) (2024-10-17T16:50:48Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Safeguarding Marketing Research: The Generation, Identification, and Mitigation of AI-Fabricated Disinformation [0.26107298043931204]
生成AIは、人間のコントリビューションを忠実に模倣するコンテンツを生成する能力を確立している。
これらのモデルは、世論の操作や認識の歪曲に利用することができ、結果としてデジタルプラットフォームに対する信頼が低下する。
本研究は,マーケティング文献と実践に3つの方法で貢献する。
論文 参考訳(メタデータ) (2024-03-17T13:08:28Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。