論文の概要: Regulating ChatGPT and other Large Generative AI Models
- arxiv url: http://arxiv.org/abs/2302.02337v8
- Date: Fri, 12 May 2023 11:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 15:51:44.692675
- Title: Regulating ChatGPT and other Large Generative AI Models
- Title(参考訳): ChatGPTとその他の大規模生成AIモデルの制御
- Authors: Philipp Hacker, Andreas Engel, Marco Mauer
- Abstract要約: 大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーション、図示、作成の方法に急速に変化しています。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討する。
LGAIM設定でAIバリューチェーンをキャプチャする新しい用語が提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large generative AI models (LGAIMs), such as ChatGPT, GPT-4 or Stable
Diffusion, are rapidly transforming the way we communicate, illustrate, and
create. However, AI regulation, in the EU and beyond, has primarily focused on
conventional AI models, not LGAIMs. This paper will situate these new
generative models in the current debate on trustworthy AI regulation, and ask
how the law can be tailored to their capabilities. After laying technical
foundations, the legal part of the paper proceeds in four steps, covering (1)
direct regulation, (2) data protection, (3) content moderation, and (4) policy
proposals. It suggests a novel terminology to capture the AI value chain in
LGAIM settings by differentiating between LGAIM developers, deployers,
professional and non-professional users, as well as recipients of LGAIM output.
We tailor regulatory duties to these different actors along the value chain and
suggest strategies to ensure that LGAIMs are trustworthy and deployed for the
benefit of society at large. Rules in the AI Act and other direct regulation
must match the specificities of pre-trained models. The paper argues for three
layers of obligations concerning LGAIMs (minimum standards for all LGAIMs;
high-risk obligations for high-risk use cases; collaborations along the AI
value chain). In general, regulation should focus on concrete high-risk
applications, and not the pre-trained model itself, and should include (i)
obligations regarding transparency and (ii) risk management. Non-discrimination
provisions (iii) may, however, apply to LGAIM developers. Lastly, (iv) the core
of the DSA content moderation rules should be expanded to cover LGAIMs. This
includes notice and action mechanisms, and trusted flaggers. In all areas,
regulators and lawmakers need to act fast to keep track with the dynamics of
ChatGPT et al.
- Abstract(参考訳): ChatGPT、GPT-4、あるいはStable Diffusionのような大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーションの方法、図示、作成を急速に変えています。
しかし、EUなどでは、AI規制は主にLGAIMではなく、従来のAIモデルに焦点を当てている。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討し、その能力にどのように適合するかを問う。
技術基盤を整備した後は、(1)直接規制、(2)データ保護、(3)コンテンツモデレーション、(4)政策提案の4段階に進む。
これは、LGAIMの開発者、デプロイ者、プロフェッショナルおよび非プロフェッショナルのユーザ、およびLGAIMのアウトプットを区別することで、LGAIM設定でAIバリューチェーンをキャプチャする新しい用語を提案する。
我々は、これらの異なるアクターに対する規制業務をバリューチェーンに沿って調整し、LGAIMが社会全体の利益のために信頼でき、デプロイされることを保証するための戦略を提案する。
ai法やその他の直接規制の規則は、事前訓練されたモデルの特異性に合致しなければならない。
論文では、LGAIM(すべてのLGAIMの最小基準、リスクの高いユースケースのリスクの高い義務、AIバリューチェーンに沿ったコラボレーション)に関する3つの義務について論じている。
一般的に、規制は、訓練済みのモデル自体ではなく、具体的な高リスクアプリケーションに焦点を当てるべきであり、含めるべきである。
一 透明性に関する義務及び義務
(ii)リスク管理。
非差別規定
しかし、(iii)LGAIM開発者には適用できる。
最後に
(4) DSA コンテンツモデレーションルールの中核は LGAIM をカバーするように拡張されるべきである。
これには通知とアクションのメカニズム、信頼できるフラグガーが含まれる。
あらゆる分野において、規制当局や議員はチャットgptなどのダイナミクスを追跡するために迅速に行動する必要がある。
関連論文リスト
- Taxonomy to Regulation: A (Geo)Political Taxonomy for AI Risks and Regulatory Measures in the EU AI Act [0.0]
この研究は、AIに関連する(地質)政治的リスクに焦点を当てた分類法を提案する。
1)地政学的圧力,(2)悪用,(3)環境,社会的,倫理的リスク,(4)プライバシ・トラスト・ヴァイオレーションの4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2024-04-17T15:32:56Z) - SoFA: Shielded On-the-fly Alignment via Priority Rule Following [90.32819418613407]
本稿では,各ダイアログにおけるルールを主制御機構として定義する,新たなアライメントパラダイムである優先ルールを提案する。
そこで本研究では,厳密な規則統合と固着性を確保するために,シミュレーションから優先信号に従う半自動蒸留手法であるプライオリティディスティルを提案する。
論文 参考訳(メタデータ) (2024-02-27T09:52:27Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - Statutory Professions in AI governance and their consequences for
explainable AI [2.363388546004777]
AIの使用によって引き起こされる意図的・偶発的な害は個人の健康、安全、権利に影響を及ぼした。
我々は、AI規制フレームワークの必須部分として、法定専門職の枠組みを導入することを提案する。
論文 参考訳(メタデータ) (2023-06-15T08:51:28Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。