論文の概要: OML: Open, Monetizable, and Loyal AI
- arxiv url: http://arxiv.org/abs/2411.03887v2
- Date: Wed, 13 Nov 2024 17:37:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 19:25:08.775391
- Title: OML: Open, Monetizable, and Loyal AI
- Title(参考訳): OML: オープンで収益性があり、ロイヤリティなAI
- Authors: Zerui Cheng, Edoardo Contente, Ben Finch, Oleg Golev, Jonathan Hayase, Andrew Miller, Niusha Moshrefi, Anshul Nasery, Sandeep Nailwal, Sewoong Oh, Himanshu Tyagi, Pramod Viswanath,
- Abstract要約: OML は Open, Monetizable, Loyal AI の略である。
OMLはAI開発を民主化するためのアプローチである。
私たちの研究の重要なイノベーションは、新たな科学分野であるAIネイティブ暗号の導入です。
- 参考スコア(独自算出の注目度): 39.63122342758896
- License:
- Abstract: Artificial Intelligence (AI) has steadily improved across a wide range of tasks. However, the development and deployment of AI are almost entirely controlled by a few powerful organizations that are racing to create Artificial General Intelligence (AGI). The centralized entities make decisions with little public oversight, shaping the future of humanity, often with unforeseen consequences. In this paper, we propose OML, which stands for Open, Monetizable, and Loyal AI, an approach designed to democratize AI development. OML is realized through an interdisciplinary framework spanning AI, blockchain, and cryptography. We present several ideas for constructing OML using technologies such as Trusted Execution Environments (TEE), traditional cryptographic primitives like fully homomorphic encryption and functional encryption, obfuscation, and AI-native solutions rooted in the sample complexity and intrinsic hardness of AI tasks. A key innovation of our work is introducing a new scientific field: AI-native cryptography. Unlike conventional cryptography, which focuses on discrete data and binary security guarantees, AI-native cryptography exploits the continuous nature of AI data representations and their low-dimensional manifolds, focusing on improving approximate performance. One core idea is to transform AI attack methods, such as data poisoning, into security tools. This novel approach serves as a foundation for OML 1.0 which uses model fingerprinting to protect the integrity and ownership of AI models. The spirit of OML is to establish a decentralized, open, and transparent platform for AI development, enabling the community to contribute, monetize, and take ownership of AI models. By decentralizing control and ensuring transparency through blockchain technology, OML prevents the concentration of power and provides accountability in AI development that has not been possible before.
- Abstract(参考訳): 人工知能(AI)は幅広いタスクで着実に改善されている。
しかし、AIの開発と展開は、人工知能(Artificial General Intelligence, AGI)の創設を競っている少数の強力な組織によってほぼ完全に制御されている。
中央集権的な組織は、公共の監視はほとんどなく決定を下し、しばしば予期せぬ結果をもたらす人類の未来を形作る。
本稿では,AI開発を民主化するアプローチであるOpen,Monetizable,Loyal AIの略であるOMLを提案する。
OMLは、AI、ブロックチェーン、暗号化にまたがる学際的なフレームワークを通じて実現されている。
我々は、Trusted Execution Environments(TEE)、完全同型暗号化や機能暗号化、難読化、AIネイティブソリューションといった従来の暗号プリミティブを、AIタスクの複雑さと本質的な硬さのサンプルに根ざした、OMLを構築するためのアイデアをいくつか提示する。
私たちの研究の重要なイノベーションは、新たな科学分野であるAIネイティブ暗号の導入です。
離散データとバイナリセキュリティ保証に焦点を当てた従来の暗号とは異なり、AIネイティブ暗号はAIデータ表現とその低次元多様体の連続的な性質を利用して、近似性能の改善に重点を置いている。
1つの中核的な考え方は、データ中毒のようなAI攻撃手法をセキュリティツールに変換することである。
この新しいアプローチは、AIモデルの完全性とオーナシップを保護するためにモデルフィンガープリントを使用するOML 1.0の基礎として機能する。
OMLの精神は、AI開発のための分散的でオープンで透明なプラットフォームを確立することであり、コミュニティがAIモデルの貢献、収益化、所有を可能にする。
コントロールの分散化とブロックチェーン技術による透明性の確保により、OMLはパワーの集中を防ぎ、これまで不可能だったAI開発における説明責任を提供する。
関連論文リスト
- SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - BC4LLM: Trusted Artificial Intelligence When Blockchain Meets Large
Language Models [6.867309936992639]
大規模言語モデル(LLM)は、AIGC(AIGC)という形で人々にサービスを提供する。
AIGC学習データの信頼性と信頼性を保証することは困難である。
分散AIトレーニングには、プライバシ開示の危険性も隠されている。
論文 参考訳(メタデータ) (2023-10-10T03:18:26Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Is Decentralized AI Safer? [0.0]
さまざまなグループがオープンなAIシステムを構築し、リスクを調査し、倫理について議論している。
本稿では,ブロックチェーン技術がこれらの取り組みをどのように促進し,形式化するかを実証する。
AIの分散化は、AIのリスクと倫理的懸念を軽減するだけでなく、今後の作業で考慮すべき新しい問題も導入する、と私たちは主張する。
論文 参考訳(メタデータ) (2022-11-04T01:01:31Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。