論文の概要: Regulating Large Language Models: A Roundtable Report
- arxiv url: http://arxiv.org/abs/2403.15397v1
- Date: Fri, 16 Feb 2024 21:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 03:13:49.302403
- Title: Regulating Large Language Models: A Roundtable Report
- Title(参考訳): 大規模言語モデルの規制: ラウンドテーブルレポート
- Authors: Gabriel Nicholas, Paul Friedl,
- Abstract要約: ラウンドテーブルは、大規模言語モデル(LLM)によって引き起こされるより大きな社会問題に、法と政策がどう対処できるかを議論するために招集された。
私たちはその日の手続きについて詳しく説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: On July 20, 2023, a group of 27 scholars and digital rights advocates with expertise in law, computer science, political science, and other disciplines gathered for the Large Language Models, Law and Policy Roundtable, co-hosted by the NYU School of Law's Information Law Institute and the Center for Democracy & Technology. The roundtable convened to discuss how law and policy can help address some of the larger societal problems posed by large language models (LLMs). The discussion focused on three policy topic areas in particular: 1. Truthfulness: What risks do LLMs pose in terms of generating mis- and disinformation? How can these risks be mitigated from a technical and/or regulatory perspective? 2. Privacy: What are the biggest privacy risks involved in the creation, deployment, and use of LLMs? How can these risks be mitigated from a technical and/or regulatory perspective? 3. Market concentration: What threats do LLMs pose concerning market/power concentration? How can these risks be mitigated from a technical and/or regulatory perspective? In this paper, we provide a detailed summary of the day's proceedings. We first recap what we deem to be the most important contributions made during the issue framing discussions. We then provide a list of potential legal and regulatory interventions generated during the brainstorming discussions.
- Abstract(参考訳): 2023年7月20日、法、コンピュータ科学、政治科学、その他の分野の専門知識を持つ27人の学者とデジタル権利擁護者のグループが、ニューヨーク大学法学部情報法研究所と民主主義・技術センターが共同で主催する大規模言語モデル、法と政策のラウンドテーブルのために集まった。
ラウンドテーブルは、大規模言語モデル(LLM)によって引き起こされるより大きな社会問題に、法と政策がどう対処できるかを議論するために招集された。
議論は、特に3つの政策トピックに焦点をあてた。 1. 真実性: 誤情報や偽情報の発生の観点から、LLMはどのようなリスクをもたらすのか?
技術的および/または規制の観点から、これらのリスクを緩和するにはどうすればよいのか?
2. プライバシ: LLMの作成、デプロイ、使用に関わる最大のプライバシリスクは何か。
技術的および/または規制の観点から、これらのリスクを緩和するにはどうすればよいのか?
3.市場集中 : LLMは市場・電力集中にどのような脅威をもたらすのか?
技術的および/または規制の観点から、これらのリスクを緩和するにはどうすればよいのか?
本稿では,その日の手続について詳述する。
この問題に関する議論の中で最も重要なコントリビューションだと考えているものを、まず最初に紹介します。
次に、ブレインストーミングの議論で発生した法的および規制上の介入の一覧を示す。
関連論文リスト
- InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - AI Language Models Could Both Help and Harm Equity in Marine
Policymaking: The Case Study of the BBNJ Question-Answering Bot [3.643615070316831]
ChatGPTのような大規模言語モデル(LLM)は、ポリシー作成プロセスのいくつかの側面を再形成するように設定されている。
LLMが政策交渉において意思決定者の間でよりバランスのとれた足場を促進するのに使えることを慎重に期待している」と述べた。
しかし、このリスクは特に環境政策や海洋政策に関係している。
論文 参考訳(メタデータ) (2024-03-04T06:21:02Z) - How should the advent of large language models affect the practice of
science? [51.62881233954798]
大規模言語モデルの出現は科学の実践にどのように影響を与えるべきか?
我々は4つの科学者グループを招待し、この質問を反映し、彼らの見解を共有し、議論をおこなった。
論文 参考訳(メタデータ) (2023-12-05T10:45:12Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - A Short Survey of Viewing Large Language Models in Legal Aspect [0.0]
大規模言語モデル(LLM)は、自然言語処理、コンピュータビジョン、強化学習など、多くの分野に変化をもたらした。
LLMの法的分野への統合は、プライバシーの懸念、偏見、説明可能性など、いくつかの法的問題を引き起こしている。
論文 参考訳(メタデータ) (2023-03-16T08:01:22Z) - Ethical and social risks of harm from Language Models [22.964941107198023]
本稿では,大規模言語モデル(LM)に関連するリスクランドスケープの構築を支援することを目的とする。
コンピュータ科学、言語学、社会科学から多分野の専門知識と文献を参考に、幅広い確立と予測されたリスクが詳細に分析されている。
論文 参考訳(メタデータ) (2021-12-08T16:09:48Z) - On the Ethical Limits of Natural Language Processing on Legal Text [9.147707153504117]
自然言語処理システムの使用に対する倫理的限界を特定する上で、研究者は苦戦していると論じている。
我々は、現在の議論によって過小評価された3つの重要な規範的パラメータに重点を置く。
これら3つのパラメータのそれぞれについて、法的NLPコミュニティに具体的な推奨事項を提供します。
論文 参考訳(メタデータ) (2021-05-06T15:22:24Z) - Understanding the Capabilities, Limitations, and Societal Impact of
Large Language Models [4.828761458451239]
GPT-3は当時最も広く公表された高密度言語モデルであった。
論争はコンピュータ科学、言語学、哲学、政治科学、コミュニケーション、サイバー政策など様々な研究の背景から生まれた。
ここでは、上記の2つのテーマによって構成された議論の概要を紹介する。
論文 参考訳(メタデータ) (2021-02-04T09:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。