論文の概要: Training for Technology: Adoption and Productive Use of Generative AI in Legal Analysis
- arxiv url: http://arxiv.org/abs/2603.04982v1
- Date: Thu, 05 Mar 2026 09:23:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.164314
- Title: Training for Technology: Adoption and Productive Use of Generative AI in Legal Analysis
- Title(参考訳): 技術教育:法解析におけるジェネレーティブAIの採用と活用
- Authors: Benjamin M. Chen, Hong Bao,
- Abstract要約: 本研究では,プロの環境下でのジェネレーティブ・人工知能(GenAI)の生産性を高めるために,ターゲットとなるユーザトレーニングが有効かどうかを検討する。
訓練を受けた生徒は、訓練を受けていない生徒よりも0.27ポイント高く評価された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Can targeted user training unlock the productive potential of generative artificial intelligence (GenAI) in professional settings? We investigate this question using a randomized study involving 164 law students completing an issue-spotting examination. Participants were assigned to one of three conditions: no GenAI access, optional access to a large language model (LLM), or optional access accompanied by an approximately ten-minute training intervention. Training significantly increased LLM adoption--the usage rate rose from 26% to 41%--and improved examination performance. Students with trained access scored 0.27 grade points higher than those with untrained access (p = 0.027), equivalent to roughly one-third of a letter grade. By contrast, access to an LLM without training did not improve performance and was associated with shorter answers relative to no access. Using principal stratification, we decompose the overall effect into adoption and effectiveness channels. Point estimates are consistent with training operating primarily by expanding the scope of GenAI use rather than by enhancing effectiveness among existing users, though confidence intervals are wide. Overall, our findings provide evidence that complementary investments in user training are critical for realizing GenAI productivity gains in knowledge-intensive fields where concerns about reliability may inhibit adoption.
- Abstract(参考訳): ターゲットとなるユーザトレーニングは、生成人工知能(GenAI)の生産性をプロフェッショナルな環境で解放できるだろうか?
本研究は164名の法科学生を対象にランダムな調査を行い,課題抽出試験を完了した。
参加者は、GenAIアクセスなし、大きな言語モデル(LLM)へのオプションアクセス、およそ10分間のトレーニング介入を伴うオプションアクセスの3つの条件のうちの1つに割り当てられた。
LLMの採用率は26%から41%に増加し,試験成績は改善した。
訓練を受けた生徒は、訓練を受けていない生徒よりも0.27点高い(p = 0.027)。
対照的に、LLMへのアクセスはトレーニングなしでは性能が向上せず、アクセスしないより短い回答に関連付けられていた。
基本層化を用いて、全体的な効果を適用チャネルと有効チャネルに分解する。
ポイント推定は、信頼区間は広いが、既存のユーザの間で有効性を高めることによってではなく、GenAIの使用範囲を広げることによるトレーニングと一致している。
全体として,信頼性が懸念される知識集約分野におけるGenAI生産性向上の実現には,ユーザトレーニングの補完的投資が不可欠であることを示す。
関連論文リスト
- AceGRPO: Adaptive Curriculum Enhanced Group Relative Policy Optimization for Autonomous Machine Learning Engineering [52.67783579040657]
AceGRPOは、エージェントの学習フロンティアにおけるタスクを優先順位付けして学習効率を最大化する機械学習システムである。
我々のトレーニングされたAce-30Bモデルは、MLE-Bench-Lite上で100%有効な応募率を実現し、プロプライエタリなフロンティアモデルの性能にアプローチし、より大きなオープンソースベースラインを上回ります。
論文 参考訳(メタデータ) (2026-02-08T10:55:03Z) - Reinforcement Unlearning via Group Relative Policy Optimization [20.66330243194323]
PURGE(Policy Unlearning through Relative Group Erasure)は、未学習を検証可能な問題として定式化する新しい手法である。
提案手法は,SotA法と比較して目標単位のトークン使用率を最大46倍に削減すると同時に,流速を5.48%向上させる。
リアル・ワールド・ナレッジ・アンラーニング(RWKU)ベンチマークでは、PURGEは11%の非ラーニング効果を達成し、元のユーティリティの98%を保存している。
論文 参考訳(メタデータ) (2026-01-28T13:07:58Z) - Improving Phishing Resilience with AI-Generated Training: Evidence on Prompting, Personalization, and Duration [3.639013246937792]
本稿では、フィッシングレジリエンストレーニングを生成する自律エンジンとして、LLM(Large Language Models)を実験的に検証する。
我々は,AIが生成したコンテンツが,採用する特定のプロンプト戦略によらず,事前学習に有意な利益をもたらすことを実証した。
論文 参考訳(メタデータ) (2025-12-01T17:13:09Z) - Training LLM Agents to Empower Humans [67.80021254324294]
本稿では,人間のエンパワーメントの最大化に基づく支援言語モデルのチューニング手法を提案する。
我々のエンパワーメント最大化手法であるEmpowerは、オフラインのテキストデータのみを必要とする。
我々は,Empowerで訓練されたエージェントが,プログラミング問題に挑戦する人間プログラマの成功率を平均192%向上させることを示す。
論文 参考訳(メタデータ) (2025-10-15T16:09:33Z) - Opting Out of Generative AI: a Behavioral Experiment on the Role of Education in Perplexity AI Avoidance [0.0]
本研究は,形式教育の違いがCAIの回避に結びついているかどうかを考察する。
発見は、AI導入における教育の中心的役割と、AI関連の研究における自己選択バイアスの役割を浮き彫りにする。
論文 参考訳(メタデータ) (2025-07-10T16:05:11Z) - Adapting University Policies for Generative AI: Opportunities, Challenges, and Policy Solutions in Higher Education [1.2691047660244332]
生成的人工知能(AI)ツールの急速な普及は、高等教育における変革の時代を後押ししている。
この記事では、生成AIがもたらす機会を批判的に検討し、それらがもたらす多面的課題を探求し、堅牢なポリシーソリューションの概要を述べる。
論文 参考訳(メタデータ) (2025-06-27T13:49:02Z) - ML-Master: Towards AI-for-AI via Integration of Exploration and Reasoning [49.25518866694287]
本稿では,探索と推論をシームレスに統合する新しいAI4AIエージェントであるML-Masterを提案する。
我々はML-MasterをMLE-Benchで評価し、平均メダル率29.3%を達成し、既存の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2025-06-19T17:53:28Z) - KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
本稿では,効率的なモデル適応によりRAGシステムを強化する自己教師型フレームワークKBAlignを提案する。
私たちのキーとなる洞察は、2つの革新的なメカニズムを通じて、モデルの本質的な能力を知識の整合性に活用することです。
KBAlign は GPT-4 による適応によって得られる性能向上の90%を達成できることを示した。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - GAT: Guided Adversarial Training with Pareto-optimal Auxiliary Tasks [73.88590165742721]
本稿では,限られた訓練データの下で補助的なタスクを活用する新しい対人訓練手法を提案する。
本手法は, 対戦学習の最小値最適化において, シングルタスクモデルをマルチタスクモデルに拡張する。
我々は、ガイド付きマルチタスク学習が、モデルロバスト性の境界をさらに推し進めるために、実践的で有望な方法であることを実証する。
論文 参考訳(メタデータ) (2023-02-06T16:23:24Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。