論文の概要: Regulating ChatGPT and other Large Generative AI Models
- arxiv url: http://arxiv.org/abs/2302.02337v1
- Date: Sun, 5 Feb 2023 08:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:43:17.336496
- Title: Regulating ChatGPT and other Large Generative AI Models
- Title(参考訳): ChatGPTとその他の大規模生成AIモデルの制御
- Authors: Philipp Hacker, Andreas Engel, Marco Mauer
- Abstract要約: 大規模な生成AIモデル(LGAIM)は、コミュニケーション、説明、作成の方法を変えています。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large generative AI models (LGAIMs), such as ChatGPT or Stable Diffusion, are
rapidly transforming the way we communicate, illustrate, and create. However,
AI regulation, in the EU and beyond, has primarily focused on conventional AI
models, not LGAIMs. This paper will situate these new generative models in the
current debate on trustworthy AI regulation, and ask how the law can be
tailored to their capabilities. The paper proceeds in three steps, covering (1)
direct regulation, (2) content moderation, and (3) policy proposals. It
finishes by making two distinct policy proposals to ensure that LGAIMs are
trustworthy and deployed for the benefit of society at large. First, rules in
the AI Act and other direct regulation must match the specificities of
pre-trained models. In particular, concrete high-risk applications, and not the
pre-trained model itself, should be the object of high-risk obligations.
Moreover, detailed transparency obligations are warranted. Non-discrimination
provisions may, however, apply to LGAIM developers. Second, the core of the DSA
content moderation rules should be expanded to cover LGAIMs. This includes
notice and action mechanisms, and trusted flaggers. In all areas, regulators
and lawmakers need to act fast to keep track with the dynamics of ChatGPT et
al.
- Abstract(参考訳): ChatGPTやStable Diffusionのような大規模な生成AIモデル(LGAIM)は、私たちのコミュニケーション、図示、作成の方法に急速に変化しています。
しかし、EUなどでは、AI規制は主にLGAIMではなく、従来のAIモデルに焦点を当てている。
本稿では、信頼に値するAI規制に関する現在の議論の中で、これらの新しい生成モデルについて検討し、その能力にどのように適合するかを問う。
本論文では,(1)直接規制,(2)コンテンツモデレーション,(3)政策提案の3段階について述べる。
社会全体の利益のために、LGAIMが信頼でき、デプロイされることを保証するために、2つの異なる政策提案を行うことで、終了する。
第一に、AI法やその他の直接規制の規則は、事前訓練されたモデルの特異性と一致しなければならない。
特に、訓練済みのモデル自体ではなく、具体的なハイリスクアプリケーションは、ハイリスクの義務の対象であるべきです。
さらに、詳細な透明性義務が保証される。
ただし、非差別条項はLGAIM開発者に適用される。
第2に、DSAコンテンツモデレーションルールの中核は、LGAIMをカバーするように拡張されるべきである。
これには通知とアクションのメカニズム、信頼できるフラグガーが含まれる。
あらゆる分野において、規制当局や議員はチャットgptなどのダイナミクスを追跡するために迅速に行動する必要がある。
関連論文リスト
- SoFA: Shielded On-the-fly Alignment via Priority Rule Following [90.32819418613407]
本稿では,各ダイアログにおけるルールを主制御機構として定義する,新たなアライメントパラダイムである優先ルールを提案する。
そこで本研究では,厳密な規則統合と固着性を確保するために,シミュレーションから優先信号に従う半自動蒸留手法であるプライオリティディスティルを提案する。
論文 参考訳(メタデータ) (2024-02-27T09:52:27Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - Statutory Professions in AI governance and their consequences for
explainable AI [2.363388546004777]
AIの使用によって引き起こされる意図的・偶発的な害は個人の健康、安全、権利に影響を及ぼした。
我々は、AI規制フレームワークの必須部分として、法定専門職の枠組みを導入することを提案する。
論文 参考訳(メタデータ) (2023-06-15T08:51:28Z) - Bridging the Global Divide in AI Regulation: A Proposal for a
Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では,様々な管轄区域におけるAI規制の現況について考察する。
グローバルな分断を橋渡しする代替の文脈的、一貫性があり、包括的(3C)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。