論文の概要: Regulation and NLP (RegNLP): Taming Large Language Models
- arxiv url: http://arxiv.org/abs/2310.05553v1
- Date: Mon, 9 Oct 2023 09:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 06:41:37.696209
- Title: Regulation and NLP (RegNLP): Taming Large Language Models
- Title(参考訳): 規則とNLP(RegNLP):大規模言語モデルのモデリング
- Authors: Catalina Goanta, Nikolaos Aletras, Ilias Chalkidis, Sofia Ranchordas,
Gerasimos Spanakis
- Abstract要約: 我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
- 参考スコア(独自算出の注目度): 51.41095330188972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scientific innovation in Natural Language Processing (NLP) and more
broadly in artificial intelligence (AI) is at its fastest pace to date. As
large language models (LLMs) unleash a new era of automation, important debates
emerge regarding the benefits and risks of their development, deployment and
use. Currently, these debates have been dominated by often polarized narratives
mainly led by the AI Safety and AI Ethics movements. This polarization, often
amplified by social media, is swaying political agendas on AI regulation and
governance and posing issues of regulatory capture. Capture occurs when the
regulator advances the interests of the industry it is supposed to regulate, or
of special interest groups rather than pursuing the general public interest.
Meanwhile in NLP research, attention has been increasingly paid to the
discussion of regulating risks and harms. This often happens without systematic
methodologies or sufficient rooting in the disciplines that inspire an extended
scope of NLP research, jeopardizing the scientific integrity of these
endeavors. Regulation studies are a rich source of knowledge on how to
systematically deal with risk and uncertainty, as well as with scientific
evidence, to evaluate and compare regulatory options. This resource has largely
remained untapped so far. In this paper, we argue how NLP research on these
topics can benefit from proximity to regulatory studies and adjacent fields. We
do so by discussing basic tenets of regulation, and risk and uncertainty, and
by highlighting the shortcomings of current NLP discussions dealing with risk
assessment. Finally, we advocate for the development of a new multidisciplinary
research space on regulation and NLP (RegNLP), focused on connecting scientific
knowledge to regulatory processes based on systematic methodologies.
- Abstract(参考訳): 自然言語処理(NLP)や人工知能(AI)の科学的革新は、これまでで最も速いペースで進んでいる。
大きな言語モデル(LLM)が自動化の新しい時代を解き放つにつれ、開発やデプロイメント、使用のメリットとリスクに関する重要な議論が生まれます。
これらの議論は、AI安全とAI倫理運動を中心に、しばしば偏極化された物語によって支配されている。
この偏光は、しばしばソーシャルメディアによって増幅され、AI規制とガバナンスに関する政治的議題を揺らぎ、規制の捕獲の問題を提起している。
捕獲は、規制当局が一般の関心を追求するよりも、規制すべき産業や特別利害団体の利益を前進させるときに起こる。
一方、NLP研究では、リスクと害の規制に関する議論に注目が集まっている。
これはしばしば、体系的な方法論や、NLP研究の範囲を広げ、これらの取り組みの科学的完全性を脅かす規律に十分な根ざすことなく起こる。
規制研究は、リスクや不確実性を体系的に扱う方法や、規制オプションを評価し比較するための科学的証拠に関する豊富な知識の源である。
この資源は現在もほとんど無傷のままである。
本稿では,これらのトピックに関するNLP研究が,規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制の基本原則、リスクと不確実性について議論し、リスクアセスメントを扱う現在のNLP議論の欠点を強調する。
最後に,規制とNLP(RegNLP)に関する新たな多分野研究空間の開発を提唱し,科学的知識を体系的方法論に基づく規制プロセスに結びつけることを目的とした。
関連論文リスト
- A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Regulating Chatbot Output via Inter-Informational Competition [8.168523242105763]
本稿では、AI関連コンテンツリスクとそれに対応する規制提案を再評価するためのヤードスティックを開発する。
情報市場における情報ソース間の十分な競争は、生成的AI技術によって引き起こされるコンテンツリスクを十分に軽減し、解決することができる、と同社は主張する。
論文 参考訳(メタデータ) (2024-03-17T00:11:15Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Tackling problems, harvesting benefits -- A systematic review of the
regulatory debate around AI [0.0]
社会の構造と運営にAIのような新興で全面的な技術を統合するには、現代の政治、科学、公共の議論がある。
本稿では,人工知能(AI)の規制に関する学術的議論を分析する。
この分析は、社会的リスクと害、規制責任の問題、そして可能な適切な政策枠組みに焦点を当てている。
論文 参考訳(メタデータ) (2022-09-07T11:29:30Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Beyond Ads: Sequential Decision-Making Algorithms in Law and Public
Policy [2.762239258559568]
法と公共政策にシーケンシャルな意思決定アルゴリズムを採用するという約束と課題について検討する。
我々の主なテーマは、法律と公共政策が、機械学習コミュニティがまだ対応していない、異なる方法論上の課題を提起することです。
規制とガバナンスにおけるシーケンシャルな意思決定アルゴリズムの幅広い応用について論じる。
論文 参考訳(メタデータ) (2021-12-13T17:45:21Z) - On the Ethical Limits of Natural Language Processing on Legal Text [9.147707153504117]
自然言語処理システムの使用に対する倫理的限界を特定する上で、研究者は苦戦していると論じている。
我々は、現在の議論によって過小評価された3つの重要な規範的パラメータに重点を置く。
これら3つのパラメータのそれぞれについて、法的NLPコミュニティに具体的な推奨事項を提供します。
論文 参考訳(メタデータ) (2021-05-06T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。