論文の概要: Large Language Models as Corporate Lobbyists
- arxiv url: http://arxiv.org/abs/2301.01181v7
- Date: Sat, 28 Jan 2023 20:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:26:09.129534
- Title: Large Language Models as Corporate Lobbyists
- Title(参考訳): コーポレートロビイストとしての大規模言語モデル
- Authors: John J. Nay
- Abstract要約: 自己回帰的大言語モデルは、提案されたアメリカ合衆国議会法案が特定の公共企業に関連するかどうかを決定する。
モデルが関連するものとみなす法案について、モデルは、提案された法律を変更するよう議会に説得するために、法案のスポンサーに手紙を起草する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate a proof-of-concept of a large language model conducting
corporate lobbying related activities. An autoregressive large language model
(OpenAI's text-davinci-003) determines if proposed U.S. Congressional bills are
relevant to specific public companies and provides explanations and confidence
levels. For the bills the model deems as relevant, the model drafts a letter to
the sponsor of the bill in an attempt to persuade the congressperson to make
changes to the proposed legislation. We use hundreds of novel ground-truth
labels of the relevance of a bill to a company to benchmark the performance of
the model. It outperforms the baseline of predicting the most common outcome of
irrelevance. We also benchmark the performance of the previous OpenAI GPT-3
model (text-davinci-002), which was the state-of-the-art model on many academic
natural language tasks until text-davinci-003 was recently released. The
performance of text-davinci-002 is worse than the simple baseline. Longer-term,
if AI begins to influence law in a manner that is not a direct extension of
human intentions, this threatens the critical role that law as information
could play in aligning AI with humans. Initially, AI is being used to simply
augment human lobbyists for a small portion of their daily tasks. However,
firms have an incentive to use less and less human oversight over automated
assessments of policy ideas and the written communication to regulatory
agencies and Congressional staffers. The core question raised is where to draw
the line between human-driven and AI-driven policy influence.
- Abstract(参考訳): コーポレートロビー活動を行う大規模言語モデルの概念実証を実証する。
自己回帰的大言語モデル(OpenAIのtext-davinci-003)は、提案された米国議会法案が特定の公共企業に関連するかどうかを決定し、説明と信頼レベルを提供する。
モデルが関連するものとみなす法案について、モデルは提案された法律を変更するよう議会に説得するために、法案のスポンサーに手紙を起草する。
我々は、そのモデルの性能をベンチマークするために、企業に対する法案の関連性に関する、数百の新たな地道ラベルを使用します。
これは無関係の最も一般的な結果を予測する基準よりも優れている。
また,従来のOpenAI GPT-3モデル(text-davinci-002)の性能評価を行った。
text-davinci-002の性能は単純なベースラインよりも悪い。
長期的には、AIが人間の意図の直接的な延長ではない方法で法律に影響を与え始めた場合、このことは、情報としての法が人間とAIを結びつける上で果たす重要な役割を脅かす。
当初AIは、人間のロビイストを日々のタスクのごく一部に増やすために使われていました。
しかし、企業は政策思想の自動評価や規制機関や議会職員との文書によるコミュニケーションに対して、人的監視を少なくするインセンティブを持っている。
一番の疑問は、人間主導とai主導の政策の影響の線引きだ。
関連論文リスト
- Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Why Companies "Democratise" Artificial Intelligence: The Case of Open Source Software Donations [0.0]
企業は、AIのオープンソースソフトウェア(OSS)を非営利団体に寄付したり、AIモデルをリリースする際に、人工知能(AI)を「民主化する」と主張している。
本研究は、Linux Foundationへの43のAI OSS寄付に対する商業的インセンティブを調査するために、混合メソッドのアプローチを採用する。
それはAI民主化のための個人的および組織的社会的、経済的、技術的インセンティブの両方の分類に寄与している。
論文 参考訳(メタデータ) (2024-09-26T14:23:44Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Towards Explainability in Legal Outcome Prediction Models [64.00172507827499]
我々は、前例が法的NLPモデルの説明可能性を促進する自然な方法であると主張している。
法的な先例の分類法を開発することで、人間の判断と神経モデルを比較することができる。
モデルが合理的に結果を予測することを学習する一方で、前例の使用は人間の判断とは違い、ということがわかりました。
論文 参考訳(メタデータ) (2024-03-25T15:15:41Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Large Language Models as Fiduciaries: A Case Study Toward Robustly
Communicating With Artificial Intelligence Through Legal Standards [0.0]
法的基準は、本質的に曖昧で具体的でない目標の堅牢なコミュニケーションを促進する。
私たちの研究は、法律標準のAI理解をより広く評価するためのフレームワークに向けた最初のステップです。
論文 参考訳(メタデータ) (2023-01-24T16:03:20Z) - Law Informs Code: A Legal Informatics Approach to Aligning Artificial
Intelligence with Humans [0.0]
法的な解釈と法的な解釈は、不透明な人間の価値を妥当な指令に変換する計算エンジンを形成する。
論理インフォームズ・コード(Law Informs Code)は、複雑な計算法的なプロセスを捉え、それらをAIに埋め込む研究課題である。
論文 参考訳(メタデータ) (2022-09-14T00:49:09Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Truthful AI: Developing and governing AI that does not lie [0.26385121748044166]
嘘をつくために口頭で嘘をつくのは有害です。
嘘は伝統的に人間関係だったが、AIシステムはますます普及しつつある。
このことは、AIの「リー」による害をどう抑えるべきかという疑問を提起する
論文 参考訳(メタデータ) (2021-10-13T12:18:09Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。