論文の概要: Moderating Model Marketplaces: Platform Governance Puzzles for AI Intermediaries
- arxiv url: http://arxiv.org/abs/2311.12573v3
- Date: Wed, 11 Sep 2024 16:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 22:03:32.455742
- Title: Moderating Model Marketplaces: Platform Governance Puzzles for AI Intermediaries
- Title(参考訳): モデルマーケットプレースをモデレーションする - AI仲介者のためのプラットフォームガバナンスのパズル
- Authors: Robert Gorwa, Michael Veale,
- Abstract要約: Hugging Faceのような仲介者は、ユーザがアップロードしたモデルやトレーニングデータに簡単にアクセスできる。
これらのモデルマーケットプレースは、数十万人のユーザの技術的なデプロイメント障壁を低くするが、潜在的に有害で違法な多くの方法で使用することができる。
- 参考スコア(独自算出の注目度): 1.5346678870160886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The AI development community is increasingly making use of hosting intermediaries such as Hugging Face provide easy access to user-uploaded models and training data. These model marketplaces lower technical deployment barriers for hundreds of thousands of users, yet can be used in numerous potentially harmful and illegal ways. In this article, we explain ways in which AI systems, which can both `contain' content and be open-ended tools, present one of the trickiest platform governance challenges seen to date. We provide case studies of several incidents across three illustrative platforms -- Hugging Face, GitHub and Civitai -- to examine how model marketplaces moderate models. Building on this analysis, we outline important (and yet nevertheless limited) practices that industry has been developing to respond to moderation demands: licensing, access and use restrictions, automated content moderation, and open policy development. While the policy challenge at hand is a considerable one, we conclude with some ideas as to how platforms could better mobilize resources to act as a careful, fair, and proportionate regulatory access point.
- Abstract(参考訳): AI開発コミュニティは、Hugging Faceのようなホスティング仲介サービスを利用して、ユーザのアップロードしたモデルやトレーニングデータへのアクセスを容易にしている。
これらのモデルマーケットプレースは、数十万人のユーザの技術的なデプロイメント障壁を低くするが、潜在的に有害で違法な多くの方法で使用することができる。
本稿では、コンテンツとオープンなツールの両方を‘保持’できるAIシステムが、これまで見てきた最もトリッキーなプラットフォームガバナンスの課題の1つを提示する方法について説明する。
Hugging Face、GitHub、Civitaiの3つのプラットフォームにまたがるいくつかのインシデントについてケーススタディを行い、モデルマーケットプレースが適度なモデルをどのように扱うかを調査します。
この分析に基づいて、私たちは、ライセンス、アクセスおよび使用制限、自動コンテンツモデレーション、オープンポリシー開発といった、業界がモデレーション要求に対応するために開発してきた重要な(しかしながら限定的な)プラクティスを概説します。
目の前の政策課題は相当なものだが、プラットフォームが注意深く公正かつ比例的な規制アクセスポイントとして機能するためにどのようにリソースを動員するかについては、いくつかのアイデアで結論付けている。
関連論文リスト
- Governing AI Agents [0.2913760942403036]
本項では、主エージェント問題に関する経済理論と、機関関係に関する共通法学説を概観する。
それは、情報非対称性、差別的権威、忠誠といった問題を含む、AIエージェントから生じる問題を特定する。
包括性、可視性、責任のガバナンス原則をサポートするためには、新しい技術的および法的基盤が必要である、と氏は主張する。
論文 参考訳(メタデータ) (2025-01-14T07:55:18Z) - Fundamental Risks in the Current Deployment of General-Purpose AI Models: What Have We (Not) Learnt From Cybersecurity? [60.629883024152576]
大規模言語モデル(LLM)は、幅広いユースケースで急速にデプロイされている。
OpenAIs Alteraは、自律性の向上、データアクセス、実行機能の一例に過ぎない。
これらの方法には、さまざまなサイバーセキュリティ上の課題が伴う。
論文 参考訳(メタデータ) (2024-12-19T14:44:41Z) - Protocol Learning, Decentralized Frontier Risk and the No-Off Problem [56.74434512241989]
私たちは第3のパラダイムであるプロトコル学習(Protocol Learning)を特定します。
このアプローチは、単一の集中型エンティティよりも桁違いに多くの計算資源を集約する可能性がある。
また、不均一で信頼性の低いノード、悪意のある参加者、インセンティブを維持するために抽出不可能なモデルの必要性、複雑なガバナンスのダイナミクスなど、新しい課題も導入されている。
論文 参考訳(メタデータ) (2024-12-10T19:53:50Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - A Novel Access Control and Privacy-Enhancing Approach for Models in Edge Computing [0.26107298043931193]
本稿では,エッジコンピューティング環境に適した新しいモデルアクセス制御手法を提案する。
この方法は、画像スタイルをライセンス機構として利用し、モデルの運用フレームワークにスタイル認識を組み込む。
エッジモデルに入力データを制限することにより、攻撃者がモデルへの不正アクセスを阻止するだけでなく、端末デバイス上のデータのプライバシーも強化する。
論文 参考訳(メタデータ) (2024-11-06T11:37:30Z) - KModels: Unlocking AI for Business Applications [10.833754921830154]
本稿では、KModelのアーキテクチャと、それを形作る重要な決定について述べる。
KModelsにより、AI消費者は専用のデータサイエンティストの必要性を排除できる。
オンプレミスのデプロイメントに非常に適しているが、クラウド環境でも使用できる。
論文 参考訳(メタデータ) (2024-09-08T13:19:12Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - INTERN: A New Learning Paradigm Towards General Vision [117.3343347061931]
我々はInterNという新しい学習パラダイムを開発した。
複数の段階の複数のソースからの監視信号を用いて学習することにより、トレーニング対象のモデルは強力な一般化性を生み出す。
ほとんどの場合、ターゲットドメインのトレーニングデータの10%しか適応していないモデルが、完全なデータセットでトレーニングされたトレーニングデータよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T18:42:50Z) - AI in Smart Cities: Challenges and approaches to enable road vehicle
automation and smart traffic control [56.73750387509709]
SCCは、活動やユーティリティの自動化と最適化による効率向上を目指すデータ中心の社会を構想しています。
本稿では、SCCにおけるAIの視点を説明し、道路車両の自動化とスマート交通制御を可能にする交通で使用されるAIベースの技術の概要を示す。
論文 参考訳(メタデータ) (2021-04-07T14:31:08Z) - Marketplace for AI Models [20.986472832797777]
我々は、分散オンラインマーケットプレースに基づく新しいAI拡散手法のガイドラインをスケッチする。
このような市場の技術的、経済的、規制的な側面について検討する。
これらのマーケットプレースのほとんどは,比較的少数のモデルを持った集中型商用マーケットプレースであることがわかった。
論文 参考訳(メタデータ) (2020-03-03T15:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。