論文の概要: Reclaiming "Open AI" -- AI Model Serving Can Be Open Access, Yet Monetizable and Loyal
- arxiv url: http://arxiv.org/abs/2411.03887v3
- Date: Tue, 03 Jun 2025 04:28:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:08.929893
- Title: Reclaiming "Open AI" -- AI Model Serving Can Be Open Access, Yet Monetizable and Loyal
- Title(参考訳): オープンAI」を再生する - AIモデルの実行はオープンアクセスが可能だが、収益化可能でロイヤリティが高い
- Authors: Zerui Cheng, Edoardo Contente, Ben Finch, Oleg Golev, Jonathan Hayase, Andrew Miller, Niusha Moshrefi, Anshul Nasery, Sandeep Nailwal, Sewoong Oh, Himanshu Tyagi, Pramod Viswanath,
- Abstract要約: AIの急速な台頭は、オープンウェイトディストリビューションと不透明なAPIベースのアプローチの間で機能する分割モデルとなっている。
このポジションペーパーでは、AIモデルサービスのためのオープンアクセス、マネタイザブル、ロヤル(OML)パラダイムを導入し、厳格に定式化し、推進する。
- 参考スコア(独自算出の注目度): 39.63122342758896
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid rise of AI has split model serving between open-weight distribution, which often lacks owner control and monetization, and opaque API-based approaches that risk user privacy and model transparency, forming a dichotomy that hinders an equitable AI ecosystem. This position paper introduces, rigorously formulates, and champions the Open-access, Monetizable, and Loyal (OML) paradigm for AI model serving: a foundational shift to securely distribute and serve AI models by synthesizing transparency with granular monetization and critical safety controls. We survey diverse OML constructions from theory and practice, analyze their security, performance, and practical trade-offs, outline a conceptual OML deployment protocol, and discuss market and policy implications. We assert that OML can foster a democratized, self-sustaining, and innovative AI landscape, mitigating centralized power risks. Finally, we call on the research community to further explore the broad design space of OML, spanning cryptographic, AI-native, and socio-economic mechanisms, to realize its full potential for a collaborative, accountable, and resilient AI future.
- Abstract(参考訳): AIの急速な普及は、所有者のコントロールと収益化を欠くことが多いオープンウェイトディストリビューションと、ユーザのプライバシとモデルの透明性を危険にさらす不透明なAPIベースのアプローチを分離して、公平なAIエコシステムを妨げる二分法を形成している。
このポジションペーパーでは、AIモデル提供のためのオープンアクセス、マネタイザブル、ロヤル(OML)パラダイムを導入し、厳格に定式化し、推進する。
我々は、理論と実践から多様なOML構築を調査し、それらのセキュリティ、パフォーマンス、実践的なトレードオフを分析し、概念的なOML展開プロトコルの概要を説明し、市場と政策への影響について議論する。
OMLは民主化され、自己維持され、革新的なAIの展望を育み、中央集権的なパワーリスクを軽減できる、と私たちは主張する。
最後に、私たちは研究コミュニティに対して、暗号、AIネイティブ、社会経済的メカニズムにまたがるOMLの幅広い設計領域を探求し、協力的で説明責任があり、レジリエントなAIの未来に対するその潜在能力を実現するよう呼びかけています。
関連論文リスト
- AI Flow: Perspectives, Scenarios, and Approaches [51.38621621775711]
私たちは最先端のITとCTの進歩を統合するフレームワークであるAI Flowを紹介します。
まず、デバイスエッジクラウドフレームワークは、エンドデバイス、エッジサーバ、クラウドクラスタを統合する基盤として機能する。
第2に,家族モデルの概念を導入し,同列に隠れた特徴を持つ様々なサイズのモデルに言及する。
第3に、コネクティビティとインタラクションに基づくインテリジェンスの出現は、AI Flowの新たなパラダイムである。
論文 参考訳(メタデータ) (2025-06-14T12:43:07Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Mitigating Cyber Risk in the Age of Open-Weight LLMs: Policy Gaps and Technical Realities [0.0]
オープンウェイト汎用AI(GPAI)モデルには大きなメリットがあるが、重大なサイバーセキュリティリスクも伴う。
本稿では、オープンウェイトAIリリースによって拡大した、マルウェア開発とソーシャルエンジニアリングの強化を含む、特定の脅威を分析する。
本稿では,モデル全体ではなく,特定のハイリスク機能の評価と制御に重点を置く経路を提案する。
論文 参考訳(メタデータ) (2025-05-21T11:35:52Z) - Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs [0.0]
本研究では,オープンかつクローズドな生成型AIモデルの特徴,機会,課題を批判的に評価し,比較することを目的とする。
提案されたフレームワークは、重要な側面、オープン性、パブリックガバナンス、セキュリティを、信頼できる、包括的なGen AIの未来を形成するための必須の柱として概説している。
論文 参考訳(メタデータ) (2025-05-15T15:21:09Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Policy Frameworks for Transparent Chain-of-Thought Reasoning in Large Language Models [1.0088912103548195]
CoT(Chain-of-Thought)推論は、複雑な問題をステップバイステップのソリューションに分解することで、大きな言語モデル(LLM)を強化する。
現在のCoT開示ポリシは、可視性、APIアクセス、価格戦略など、さまざまなモデルで大きく異なり、統一されたポリシフレームワークが欠如している。
学術,ビジネス,一般ユーザ向けにCoTの可用性を調整し,透明性,説明責任,セキュリティのバランスをとるタイレッドアクセスポリシフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-14T19:54:18Z) - The AI Pentad, the CHARME$^{2}$D Model, and an Assessment of Current-State AI Regulation [5.231576332164012]
本稿では,コアAIコンポーネントの観点から,AI規制の統一モデルを確立することを目的とする。
まず、AIの5つの重要なコンポーネントで構成されるAI Pentadを紹介します。
次に、AI登録と開示、AI監視、AI執行機構を含むAI規制イネージャをレビューする。
論文 参考訳(メタデータ) (2025-03-08T22:58:41Z) - Protocol Learning, Decentralized Frontier Risk and the No-Off Problem [56.74434512241989]
私たちは第3のパラダイムであるプロトコル学習(Protocol Learning)を特定します。
このアプローチは、単一の集中型エンティティよりも桁違いに多くの計算資源を集約する可能性がある。
また、不均一で信頼性の低いノード、悪意のある参加者、インセンティブを維持するために抽出不可能なモデルの必要性、複雑なガバナンスのダイナミクスなど、新しい課題も導入されている。
論文 参考訳(メタデータ) (2024-12-10T19:53:50Z) - SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - BC4LLM: Trusted Artificial Intelligence When Blockchain Meets Large
Language Models [6.867309936992639]
大規模言語モデル(LLM)は、AIGC(AIGC)という形で人々にサービスを提供する。
AIGC学習データの信頼性と信頼性を保証することは困難である。
分散AIトレーニングには、プライバシ開示の危険性も隠されている。
論文 参考訳(メタデータ) (2023-10-10T03:18:26Z) - Open-Sourcing Highly Capable Foundation Models: An evaluation of risks,
benefits, and alternative methods for pursuing open-source objectives [6.575445633821399]
AIラボをオープンソースにするか、あるいはモデルへのアクセスを制限するという最近の決定は、議論を巻き起こした。
本稿では,高機能基盤モデルのオープンソース化のリスクとメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-29T17:03:45Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Is Decentralized AI Safer? [0.0]
さまざまなグループがオープンなAIシステムを構築し、リスクを調査し、倫理について議論している。
本稿では,ブロックチェーン技術がこれらの取り組みをどのように促進し,形式化するかを実証する。
AIの分散化は、AIのリスクと倫理的懸念を軽減するだけでなく、今後の作業で考慮すべき新しい問題も導入する、と私たちは主張する。
論文 参考訳(メタデータ) (2022-11-04T01:01:31Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。