論文の概要: The GELATO Dataset for Legislative NER
- arxiv url: http://arxiv.org/abs/2603.14130v1
- Date: Sat, 14 Mar 2026 21:32:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.622081
- Title: The GELATO Dataset for Legislative NER
- Title(参考訳): 立法的NERのためのGELATOデータセット
- Authors: Matthew Flynn, Timothy Obiso, Sam Newman,
- Abstract要約: 本稿では、第118議会の下院および上院法案のデータセットであるGELATOを紹介する。
我々は、このデータセット上で異なるアーキテクチャとサイズを持つ変換器ベースモデル(BERT、RoBERTa)をファーストレベルの予測のために微調整する。
- 参考スコア(独自算出の注目度): 0.08496348835248901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces GELATO (Government, Executive, Legislative, and Treaty Ontology), a dataset of U.S. House and Senate bills from the 118th Congress annotated using a novel two-level named entity recognition ontology designed for U.S. legislative texts. We fine-tune transformer-based models (BERT, RoBERTa) of different architectures and sizes on this dataset for first-level prediction. We then use LLMs with optimized prompts to complete the second level prediction. The strong performance of RoBERTa and relatively weak performance of BERT models, as well as the application of LLMs as second-level predictors, support future research in legislative NER or downstream tasks using these model combinations as extraction tools.
- Abstract(参考訳): 本稿では,第118議会の下院および上院法案のデータセットであるGELATO(Government, Executive, Legislative, and Treaty Ontology)を紹介する。
我々は、このデータセット上で異なるアーキテクチャとサイズを持つ変換器ベースモデル(BERT、RoBERTa)をファーストレベルの予測のために微調整する。
次に、最適化されたプロンプトでLLMを使用して第2レベルの予測を完了します。
RoBERTaの強力な性能とBERTモデルの比較的弱い性能、および第2レベルの予測器としてのLLMの適用は、これらのモデルの組み合わせを抽出ツールとして使用した法定NERや下流タスクにおける将来の研究を支援する。
関連論文リスト
- Lexicon-Enriched Graph Modeling for Arabic Document Readability Prediction [0.2333246928962179]
アラビア語における文書レベルの可読性を予測するために,レキシコンに富んだグラフベースの手法を提案する。
我々のシステムは各文書を文レベルグラフとしてモデル化し、ノードは文と補題を表す。
文書レベルの予測には、最大プーリングを用いて文レベルの出力を集約し、最も難しい文を反映する。
論文 参考訳(メタデータ) (2025-09-26T19:29:32Z) - Graph-Structured Speculative Decoding [52.94367724136063]
投機的復号化は、大規模言語モデルの推論を加速する有望な手法として登場した。
本稿では, 有向非巡回グラフ(DAG)を応用して, 起案された仮説を管理する革新的な手法を提案する。
我々は1.73$times$から1.96$times$に顕著なスピードアップを観察し、標準投機的復号法を大幅に上回った。
論文 参考訳(メタデータ) (2024-07-23T06:21:24Z) - CALRec: Contrastive Alignment of Generative LLMs for Sequential Recommendation [18.986613405565514]
大規模言語モデル(LLM)は、シーケンシャルなレコメンデーションのために大量のテキストコーパスで事前訓練される。
本稿では,2つの対照的な損失と言語モデリング損失を混合して,事前学習したLLMを2tower方式で微調整する2段階のLLMファインタニングフレームワークを提案する。
我々のモデルは、多くの最先端のベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2024-05-03T18:51:19Z) - Exploring Large Language Models and Hierarchical Frameworks for
Classification of Large Unstructured Legal Documents [0.6349503549199403]
我々は,大規模法律文書の分類と,深層学習に基づく階層的枠組みによる構造情報の欠如について検討する。
具体的には、文書を分割して、カスタムの微調整された大規模言語モデルの最後の4層から埋め込みを抽出する。
提案手法は,従来の最先端手法に比べて平均2ポイント程度の性能向上を実現している。
論文 参考訳(メタデータ) (2024-03-11T16:24:08Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - A Comparative Study of Transformers on Word Sense Disambiguation [0.0]
本稿では,ニューラルネットワークを用いた埋め込みシステムの文脈化能力について比較検討する。
本稿では,2つのWord Sense Disambiguation (WSD)タスクであるSensEval-2とSensEval-3を用いて,その文脈化能力を評価する。
実験の結果,提案手法は両WSDタスクにおける現状よりも優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-11-30T14:10:22Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - CodeBERT: A Pre-Trained Model for Programming and Natural Languages [117.34242908773061]
CodeBERTは、プログラミング言語(PL)とナット言語(NL)のための事前訓練されたモデルである。
我々はTransformerベースのニューラルアーキテクチャを用いたCodeBERTを開発した。
モデルパラメータの微調整による2つのNL-PLアプリケーション上でのCodeBERTの評価を行った。
論文 参考訳(メタデータ) (2020-02-19T13:09:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。