論文の概要: Explaining novel senses using definition generation with open language models
- arxiv url: http://arxiv.org/abs/2509.26181v2
- Date: Wed, 01 Oct 2025 10:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.844898
- Title: Explaining novel senses using definition generation with open language models
- Title(参考訳): オープン言語モデルを用いた定義生成による新しい感覚の記述
- Authors: Mariia Fedorova, Andrey Kutuzov, Francesco Periti, Yves Scherrer,
- Abstract要約: AXOLOTL'24共有タスクのデータセットを,説明可能な意味変化モデリングに利用した。
私たちは、最高の提案よりも高いパフォーマンスのオープンソースモデルを微調整し、公開しています。
さらに、エンコーダ-デコーダ定義ジェネレータはデコーダのみのジェネレータと同等に動作することがわかった。
- 参考スコア(独自算出の注目度): 10.537218567768731
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We apply definition generators based on open-weights large language models to the task of creating explanations of novel senses, taking target word usages as an input. To this end, we employ the datasets from the AXOLOTL'24 shared task on explainable semantic change modeling, which features Finnish, Russian and German languages. We fine-tune and provide publicly the open-source models performing higher than the best submissions of the aforementioned shared task, which employed closed proprietary LLMs. In addition, we find that encoder-decoder definition generators perform on par with their decoder-only counterparts.
- Abstract(参考訳): オープンウェイトな大言語モデルに基づく定義ジェネレータを,新たな感覚を説明するタスクに適用し,目的語を入力として利用する。
この目的のために、フィンランド語、ロシア語、ドイツ語を特徴とする説明可能な意味変化モデリングのタスクを、AXOLOTL'24で共有したデータセットに採用する。
クローズドプロプライエタリなLLMを採用した、上記の共有タスクのベストな提案よりも高いパフォーマンスのオープンソースモデルを微調整し、公開する。
さらに、エンコーダ-デコーダ定義ジェネレータはデコーダのみのジェネレータと同等に動作することがわかった。
関連論文リスト
- Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - LatentQA: Teaching LLMs to Decode Activations Into Natural Language [72.87064562349742]
自然言語におけるモデルアクティベーションに関するオープンな疑問に答えるタスクであるLatentQAを紹介する。
本稿では,アクティベーションと関連する質問応答ペアのデータセット上で,デコーダLLMを微調整するLatent Interpretation Tuning (LIT)を提案する。
我々のデコーダはまた、ステレオタイプ付き文のモデルのデバイアス化や世代ごとの感情制御など、モデルを制御するために使用する差別化可能な損失も規定している。
論文 参考訳(メタデータ) (2024-12-11T18:59:33Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - Enriching Word Usage Graphs with Cluster Definitions [5.3135532294740475]
本稿では,複数の言語に対する既存のWUGを,意味定義として機能するクラスタラベルに富んだ単語使用グラフ(WUG)のデータセットを提案する。
それらは、微調整エンコーダ-デコーダ言語モデルによってスクラッチから生成される。
人体評価の結果、これらの定義はWordNetから選択した定義よりもWUGの既存のクラスタとよく一致していることがわかった。
論文 参考訳(メタデータ) (2024-03-26T18:22:05Z) - Informed Named Entity Recognition Decoding for Generative Language
Models [3.5323691899538128]
Informed Named Entity Recognition Decoding (iNERD) を提案する。
8つの名前付きエンティティ認識データセット上で5つの生成言語モデルを評価し、優れた結果を得るため、統合されたエンティティコーパス上でモデルを粗いチューニングを行い、その性能を向上させる。
論文 参考訳(メタデータ) (2023-08-15T14:16:29Z) - Extrapolating Multilingual Understanding Models as Multilingual
Generators [82.1355802012414]
本稿では,多言語理解モデルに統一モデルを得るための生成能力を付与する手法について検討する。
少数の新しいパラメータを持つ多言語ジェネレータにエンコーダを適用するために,textbfSemantic-textbfGuided textbfAlignment-then-Denoising (SGA)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:33:21Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。