論文の概要: Large Language Models as Fiduciaries: A Case Study Toward Robustly
Communicating With Artificial Intelligence Through Legal Standards
- arxiv url: http://arxiv.org/abs/2301.10095v2
- Date: Mon, 30 Jan 2023 18:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:48:02.847286
- Title: Large Language Models as Fiduciaries: A Case Study Toward Robustly
Communicating With Artificial Intelligence Through Legal Standards
- Title(参考訳): 実演家としての大規模言語モデル--法的基準による人工知能とのロバストなコミュニケーションをめざして
- Authors: John J. Nay
- Abstract要約: 法的基準は、本質的に曖昧で具体的でない目標の堅牢なコミュニケーションを促進する。
私たちの研究は、法律標準のAI理解をより広く評価するためのフレームワークに向けた最初のステップです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is taking on increasingly autonomous roles,
e.g., browsing the web as a research assistant and managing money. But
specifying goals and restrictions for AI behavior is difficult. Similar to how
parties to a legal contract cannot foresee every potential "if-then"
contingency of their future relationship, we cannot specify desired AI behavior
for all circumstances. Legal standards facilitate robust communication of
inherently vague and underspecified goals. Instructions (in the case of
language models, "prompts") that employ legal standards will allow AI agents to
develop shared understandings of the spirit of a directive that generalize
expectations regarding acceptable actions to take in unspecified states of the
world. Standards have built-in context that is lacking from other goal
specification languages, such as plain language and programming languages.
Through an empirical study on thousands of evaluation labels we constructed
from U.S. court opinions, we demonstrate that large language models (LLMs) are
beginning to exhibit an "understanding" of one of the most relevant legal
standards for AI agents: fiduciary obligations. Performance comparisons across
models suggest that, as LLMs continue to exhibit improved core capabilities,
their legal standards understanding will also continue to improve. OpenAI's
latest LLM has 78% accuracy on our data, their previous release has 73%
accuracy, and a model from their 2020 GPT-3 paper has 27% accuracy (worse than
random). Our research is an initial step toward a framework for evaluating AI
understanding of legal standards more broadly, and for conducting reinforcement
learning with legal feedback (RLLF).
- Abstract(参考訳): 人工知能(AI)は、研究アシスタントとしてウェブを閲覧し、資金を管理するなど、ますます自律的な役割を担っている。
しかし、AI行動の目標と制限を指定することは難しい。
法的契約の当事者が将来の関係のあらゆる潜在的な「もし」偶然を予見できないのと同様に、あらゆる状況において望ましいai行動を特定することはできない。
法的基準は、本質的に曖昧で不特定な目標の堅牢なコミュニケーションを促進する。
法的基準を取り入れた(言語モデルの場合、"prompts"と呼ばれる)命令は、AIエージェントが世界の不特定状態を取るための許容可能な行動に関する期待を一般化する指令の精神についての共通理解を発達させることができる。
標準には、平易な言語やプログラミング言語など、他の目標仕様言語に欠けるコンテキストが組み込まれている。
米国裁判所の意見から構築した何千もの評価ラベルに関する実証的研究を通じて、我々は、大規模言語モデル(LLM)がAIエージェントの最も関係の深い法的基準の1つ、すなわち義務を「理解」し始めていることを実証した。
モデル間でのパフォーマンス比較は、LLMが改良されたコア能力を示し続けるにつれ、法的基準の理解も改善され続けることを示唆している。
openaiの最新のllmはデータに78%の精度があり、以前のリリースでは73%の精度があり、2020年のgpt-3論文のモデルでは27%の精度(ランダムより低い)がある。
我々の研究は、法律標準に対するAI理解をより広く評価し、法的フィードバック(RLLF)による強化学習を実施するためのフレームワークに向けた最初のステップである。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity [1.9806397201363817]
本稿では、欧州連合の文脈におけるジェネレーティブAIと大規模言語モデル(LLM)の法的および規制的意味について述べる。
責任、プライバシー、知的財産権、サイバーセキュリティの側面を分析する。
生成モデルの安全性とコンプライアンスを保証するためのレコメンデーションを提案している。
論文 参考訳(メタデータ) (2024-01-14T19:16:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Law Informs Code: A Legal Informatics Approach to Aligning Artificial
Intelligence with Humans [0.0]
法的な解釈と法的な解釈は、不透明な人間の価値を妥当な指令に変換する計算エンジンを形成する。
論理インフォームズ・コード(Law Informs Code)は、複雑な計算法的なプロセスを捉え、それらをAIに埋め込む研究課題である。
論文 参考訳(メタデータ) (2022-09-14T00:49:09Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。