論文の概要: OML: A Primitive for Reconciling Open Access with Owner Control in AI Model Distribution
- arxiv url: http://arxiv.org/abs/2411.03887v4
- Date: Fri, 03 Oct 2025 02:44:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 14:21:29.65115
- Title: OML: A Primitive for Reconciling Open Access with Owner Control in AI Model Distribution
- Title(参考訳): OML:AIモデル配布におけるオーナコントロールによるオープンアクセスの再構築のためのプリミティブ
- Authors: Zerui Cheng, Edoardo Contente, Ben Finch, Oleg Golev, Jonathan Hayase, Andrew Miller, Niusha Moshrefi, Anshul Nasery, Sandeep Nailwal, Sewoong Oh, Himanshu Tyagi, Pramod Viswanath,
- Abstract要約: 我々は,AIモデルの新たな分散パラダイムを実現するプリミティブであるOMLを紹介する。
OMLは、暗号的に強制された使用許可を維持しながら、ローカル実行のために自由に配布することができる。
この研究は、暗号、機械学習、そしてメカニズム設計の交差点で新しい研究の方向性を開く。
- 参考スコア(独自算出の注目度): 35.68672391812135
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The current paradigm of AI model distribution presents a fundamental dichotomy: models are either closed and API-gated, sacrificing transparency and local execution, or openly distributed, sacrificing monetization and control. We introduce OML(Open-access, Monetizable, and Loyal AI Model Serving), a primitive that enables a new distribution paradigm where models can be freely distributed for local execution while maintaining cryptographically enforced usage authorization. We are the first to introduce and formalize this problem, introducing rigorous security definitions tailored to the unique challenge of white-box model protection: model extraction resistance and permission forgery resistance. We prove fundamental bounds on the achievability of OML properties and characterize the complete design space of potential constructions, from obfuscation-based approaches to cryptographic solutions. To demonstrate practical feasibility, we present OML 1.0, a novel OML construction leveraging AI-native model fingerprinting coupled with crypto-economic enforcement mechanisms. Through extensive theoretical analysis and empirical evaluation, we establish OML as a foundational primitive necessary for sustainable AI ecosystems. This work opens a new research direction at the intersection of cryptography, machine learning, and mechanism design, with critical implications for the future of AI distribution and governance.
- Abstract(参考訳): 現在のAIモデルの分散のパラダイムは、基本的な二分法である。モデルはクローズドで、API公開で、透明性とローカル実行を犠牲にするか、オープンに分散され、収益化とコントロールを犠牲にする。
OML(Open- Access, Monetizable, Loyal AI Model Serving)は,暗号的に強制された使用許可を維持しながら,ローカル実行用にモデルを自由に配布可能な,新たな分散パラダイムを実現するプリミティブである。
我々はこの問題を最初に導入し、形式化し、ホワイトボックスモデル保護のユニークな課題であるモデル抽出抵抗とパーミッションフォージェリ抵抗に合わせた厳密なセキュリティ定義を導入する。
我々はOML特性の達成可能性の基本的限界を証明し、難読化に基づくアプローチから暗号解まで、潜在的構成の完全な設計空間を特徴付ける。
OML 1.0は,AIネイティブモデルフィンガープリントと暗号経済執行機構を組み合わせた新しいOML構造である。
広範囲な理論的分析と経験的評価を通じて、我々は、持続可能なAIエコシステムに必要な基礎的プリミティブとしてOMLを確立する。
この研究は、暗号、機械学習、そしてメカニズム設計の交差点で新しい研究の方向性を開き、AIの配布とガバナンスの将来に重要な意味を持つ。
関連論文リスト
- AI Flow: Perspectives, Scenarios, and Approaches [51.38621621775711]
私たちは最先端のITとCTの進歩を統合するフレームワークであるAI Flowを紹介します。
まず、デバイスエッジクラウドフレームワークは、エンドデバイス、エッジサーバ、クラウドクラスタを統合する基盤として機能する。
第2に,家族モデルの概念を導入し,同列に隠れた特徴を持つ様々なサイズのモデルに言及する。
第3に、コネクティビティとインタラクションに基づくインテリジェンスの出現は、AI Flowの新たなパラダイムである。
論文 参考訳(メタデータ) (2025-06-14T12:43:07Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Mitigating Cyber Risk in the Age of Open-Weight LLMs: Policy Gaps and Technical Realities [0.0]
オープンウェイト汎用AI(GPAI)モデルには大きなメリットがあるが、重大なサイバーセキュリティリスクも伴う。
本稿では、オープンウェイトAIリリースによって拡大した、マルウェア開発とソーシャルエンジニアリングの強化を含む、特定の脅威を分析する。
本稿では,モデル全体ではなく,特定のハイリスク機能の評価と制御に重点を置く経路を提案する。
論文 参考訳(メタデータ) (2025-05-21T11:35:52Z) - Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs [0.0]
本研究では,オープンかつクローズドな生成型AIモデルの特徴,機会,課題を批判的に評価し,比較することを目的とする。
提案されたフレームワークは、重要な側面、オープン性、パブリックガバナンス、セキュリティを、信頼できる、包括的なGen AIの未来を形成するための必須の柱として概説している。
論文 参考訳(メタデータ) (2025-05-15T15:21:09Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Policy Frameworks for Transparent Chain-of-Thought Reasoning in Large Language Models [1.0088912103548195]
CoT(Chain-of-Thought)推論は、複雑な問題をステップバイステップのソリューションに分解することで、大きな言語モデル(LLM)を強化する。
現在のCoT開示ポリシは、可視性、APIアクセス、価格戦略など、さまざまなモデルで大きく異なり、統一されたポリシフレームワークが欠如している。
学術,ビジネス,一般ユーザ向けにCoTの可用性を調整し,透明性,説明責任,セキュリティのバランスをとるタイレッドアクセスポリシフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-14T19:54:18Z) - The AI Pentad, the CHARME$^{2}$D Model, and an Assessment of Current-State AI Regulation [5.231576332164012]
本稿では,コアAIコンポーネントの観点から,AI規制の統一モデルを確立することを目的とする。
まず、AIの5つの重要なコンポーネントで構成されるAI Pentadを紹介します。
次に、AI登録と開示、AI監視、AI執行機構を含むAI規制イネージャをレビューする。
論文 参考訳(メタデータ) (2025-03-08T22:58:41Z) - Protocol Learning, Decentralized Frontier Risk and the No-Off Problem [56.74434512241989]
私たちは第3のパラダイムであるプロトコル学習(Protocol Learning)を特定します。
このアプローチは、単一の集中型エンティティよりも桁違いに多くの計算資源を集約する可能性がある。
また、不均一で信頼性の低いノード、悪意のある参加者、インセンティブを維持するために抽出不可能なモデルの必要性、複雑なガバナンスのダイナミクスなど、新しい課題も導入されている。
論文 参考訳(メタデータ) (2024-12-10T19:53:50Z) - SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - BC4LLM: Trusted Artificial Intelligence When Blockchain Meets Large
Language Models [6.867309936992639]
大規模言語モデル(LLM)は、AIGC(AIGC)という形で人々にサービスを提供する。
AIGC学習データの信頼性と信頼性を保証することは困難である。
分散AIトレーニングには、プライバシ開示の危険性も隠されている。
論文 参考訳(メタデータ) (2023-10-10T03:18:26Z) - Open-Sourcing Highly Capable Foundation Models: An evaluation of risks,
benefits, and alternative methods for pursuing open-source objectives [6.575445633821399]
AIラボをオープンソースにするか、あるいはモデルへのアクセスを制限するという最近の決定は、議論を巻き起こした。
本稿では,高機能基盤モデルのオープンソース化のリスクとメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-29T17:03:45Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Is Decentralized AI Safer? [0.0]
さまざまなグループがオープンなAIシステムを構築し、リスクを調査し、倫理について議論している。
本稿では,ブロックチェーン技術がこれらの取り組みをどのように促進し,形式化するかを実証する。
AIの分散化は、AIのリスクと倫理的懸念を軽減するだけでなく、今後の作業で考慮すべき新しい問題も導入する、と私たちは主張する。
論文 参考訳(メタデータ) (2022-11-04T01:01:31Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。