論文の概要: On Regulating Downstream AI Developers
- arxiv url: http://arxiv.org/abs/2503.11922v1
- Date: Fri, 14 Mar 2025 23:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 16:00:54.370958
- Title: On Regulating Downstream AI Developers
- Title(参考訳): 下流AI開発者の規制について
- Authors: Sophie Williams, Jonas Schuett, Markus Anderljung,
- Abstract要約: ファンデーションモデルは、親密な画像の乱用、サイバー攻撃、バイオテロなど、重大なリスクを負う可能性がある。
これらのリスクを減らすため、政策立案者はこれらのモデルの開発者に義務を課し始めている。
下流の開発者は、モデルの能力を改善したり、安全性機能を妥協することで、リスクを創造または増幅することができる。
- 参考スコア(独自算出の注目度): 1.053373860696675
- License:
- Abstract: Foundation models - models trained on broad data that can be adapted to a wide range of downstream tasks - can pose significant risks, ranging from intimate image abuse, cyberattacks, to bioterrorism. To reduce these risks, policymakers are starting to impose obligations on the developers of these models. However, downstream developers - actors who fine-tune or otherwise modify foundational models - can create or amplify risks by improving a model's capabilities or compromising its safety features. This can make rules on upstream developers ineffective. One way to address this issue could be to impose direct obligations on downstream developers. However, since downstream developers are numerous, diverse, and rapidly growing in number, such direct regulation may be both practically challenging and stifling to innovation. A different approach would be to require upstream developers to mitigate downstream modification risks (e.g. by restricting what modifications can be made). Another approach would be to use alternative policy tools (e.g. clarifying how existing tort law applies to downstream developers or issuing voluntary guidance to help mitigate downstream modification risks). We expect that regulation on upstream developers to mitigate downstream modification risks will be necessary. Although further work is needed, regulation of downstream developers may also be warranted where they retain the ability to increase risk to an unacceptable level.
- Abstract(参考訳): ファンデーションモデル — 幅広いダウンストリームタスクに適応可能な広範なデータに基づいてトレーニングされたモデル — は、親密な画像の乱用、サイバー攻撃、バイオテロなど、重大なリスクを生じさせる可能性がある。
これらのリスクを減らすため、政策立案者はこれらのモデルの開発者に義務を課し始めている。
しかし、下流の開発者 - 微調整や基本モデルの修正を行うアクター - は、モデルの能力を改善したり、安全性機能を妥協することによってリスクを発生または増幅することができる。
これにより、上流開発者のルールが無効になる可能性がある。
この問題に対処する方法の1つは、下流の開発者に直接的な義務を課すことかもしれない。
しかし、下流の開発者は多様であり、多様であり、急速に成長しているため、このような直接的な規制は実際は困難であり、イノベーションを阻害する可能性がある。
別のアプローチでは、上流の開発者に下流の修正のリスクを軽減するように要求する(例えば、変更ができることを制限する)。
もうひとつのアプローチは、代替ポリシーツールを使用することだ(例えば、既存のトレント法が下流の開発者にどのように適用されるかを明確にすることや、下流の修正リスクを軽減するために自発的なガイダンスを発行すること)。
上流開発者の規制が下流修正のリスクを軽減する必要があると期待しています。
さらなる作業が必要だが、ダウンストリーム開発者の規制は、受け入れがたいレベルまでリスクを増大させる能力を維持している場合にも保証される。
関連論文リスト
- Towards Data Governance of Frontier AI Models [0.0]
私たちは、フロンティアAIモデルに対して、データが新たなガバナンス能力を実現する方法について検討する。
データは非リバルで、しばしば非排除可能で、容易に複製可能で、ますます合成可能になっている。
データサプライチェーンに沿ってキーアクターをターゲットにした一連のポリシー機構を提案する。
論文 参考訳(メタデータ) (2024-12-05T02:37:51Z) - Liability and Insurance for Catastrophic Losses: the Nuclear Power Precedent and Lessons for AI [0.0]
本稿では、フロンティアAIモデルの開発者は、クリティカルAI発生(CAIO)による損害に対して、限定的で厳格で排他的な第三者責任を課すべきである、と論じる。
CAIO責任の強制保険は、開発者の判断力、勝者の呪いのダイナミクスを克服し、保険会社の準規制能力を活用するために推奨される。
論文 参考訳(メタデータ) (2024-09-10T17:41:31Z) - Generative AI Models: Opportunities and Risks for Industry and Authorities [1.3196892898418466]
生成AIモデルは、伝統的に創造性と人間の理解を必要とする幅広いタスクを実行することができる。
トレーニング中は、既存のデータからパターンを学び、その後、新しいコンテンツを生成することができる。
生成AIに関連する多くのリスクは、開発中に対処する必要がある。
論文 参考訳(メタデータ) (2024-06-07T08:34:30Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Data-Adaptive Tradeoffs among Multiple Risks in Distribution-Free Prediction [55.77015419028725]
しきい値とトレードオフパラメータが適応的に選択された場合、リスクの有効な制御を可能にする手法を開発する。
提案手法は単調なリスクとほぼ単調なリスクをサポートするが,それ以外は分布的な仮定はしない。
論文 参考訳(メタデータ) (2024-03-28T17:28:06Z) - Deployment Corrections: An incident response framework for frontier AI
models [0.0]
本稿では,デプロイ前リスク管理が不十分な場合の緊急計画について検討する。
危険な機能に対応するためにAI開発者が使用できるデプロイメント修正ツールキットについて説明する。
私たちは、フロンティアAI開発者、標準設定組織、そして規制当局が協力して標準化された業界全体のアプローチを定義することを推奨します。
論文 参考訳(メタデータ) (2023-09-30T10:07:39Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - AdaptGuard: Defending Against Universal Attacks for Model Adaptation [129.2012687550069]
モデル適応アルゴリズムにおいて、ソースドメインから転送されるユニバーサルアタックに対する脆弱性について検討する。
本稿では,モデル適応アルゴリズムの安全性を向上させるために,AdaptGuardというモデル前処理フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-19T07:53:31Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。