論文の概要: Towards Universal Semantics With Large Language Models
- arxiv url: http://arxiv.org/abs/2505.11764v2
- Date: Wed, 02 Jul 2025 16:43:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:57.450649
- Title: Towards Universal Semantics With Large Language Models
- Title(参考訳): 大言語モデルを用いたユニバーサルセマンティクスを目指して
- Authors: Raymond Baartmans, Matthew Raffel, Rahul Vikram, Aiden Deringer, Lizhong Chen,
- Abstract要約: 本稿では,大規模言語モデル (LLM) を用いて自然意味メタ言語を表現した最初の研究について述べる。
我々の1Bモデルと8BモデルはGPT-4oよりも正確で、相互翻訳可能なエクスプリケーションを生成する。
- 参考スコア(独自算出の注目度): 4.873927154453253
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Natural Semantic Metalanguage (NSM) is a linguistic theory based on a universal set of semantic primes: simple, primitive word-meanings that have been shown to exist in most, if not all, languages of the world. According to this framework, any word, regardless of complexity, can be paraphrased using these primes, revealing a clear and universally translatable meaning. These paraphrases, known as explications, can offer valuable applications for many natural language processing (NLP) tasks, but producing them has traditionally been a slow, manual process. In this work, we present the first study of using large language models (LLMs) to generate NSM explications. We introduce automatic evaluation methods, a tailored dataset for training and evaluation, and fine-tuned models for this task. Our 1B and 8B models outperform GPT-4o in producing accurate, cross-translatable explications, marking a significant step toward universal semantic representation with LLMs and opening up new possibilities for applications in semantic analysis, translation, and beyond.
- Abstract(参考訳): ナチュラル・セマンティック・メタ言語(Natural Semantic Meta language、NSM)は、意味素数の普遍的な集合に基づく言語理論である。
この枠組みによれば、複雑さにかかわらず、任意の単語はこれらの素数を用いて言い換えられ、明確で普遍的に翻訳可能な意味を明らかにする。
これらのパラフレーズはexplicationsとして知られ、多くの自然言語処理(NLP)タスクに有用なアプリケーションを提供するが、伝統的にそれらを生成するのは遅く手動のプロセスであった。
本研究では,大規模な言語モデル(LLM)を用いてNSMの重複を生成する手法を提案する。
本稿では, 自動評価手法, トレーニングと評価のための調整データセット, タスクのための微調整モデルを紹介する。
我々の 1B と 8B モデルは GPT-4o よりも優れており、正確なクロス翻訳可能な説明を生成でき、LLM による普遍的な意味表現への重要な一歩をマークし、意味解析、翻訳、その他の分野での新たな可能性を開く。
関連論文リスト
- Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Meta-Reasoning: Semantics-Symbol Deconstruction for Large Language Models [34.22393697176282]
実世界の象徴的手法の適用性と適応性を広げるためのメタ推論を提案する。
この方法はLLMに対して、推論に依存しない意味情報を汎用的な記号表現に分解する権限を与える。
我々は、算術、記号、論理的推論といった従来の推論タスクを含む10以上のデータセットと、理論の推論のようなより複雑な対話的推論タスクに関する広範な実験を行う。
論文 参考訳(メタデータ) (2023-06-30T17:38:10Z) - On the Universality of Deep COntextual Language Models [15.218264849664715]
ELMOやBERTのような深い文脈言語モデル(LM)は、自然言語処理のランドスケープを支配している。
XLM-RやmBERTのような多言語モデルでは、ゼロショットのクロスリンガル転送が期待できる結果となった。
この最初の成功により、訓練済みのモデルはユニバーサル言語モデルとして使用されている。
論文 参考訳(メタデータ) (2021-09-15T08:00:33Z) - Pre-training Universal Language Representation [46.51685959045527]
この研究は普遍言語表現学習、すなわち、一様ベクトル空間に非常に多様な長さを持つ言語単位やテキストの異なるレベルの埋め込みを導入している。
我々は、よく設計された事前学習スキームが、効果的に普遍的な言語表現をもたらすことを実証的に検証する。
論文 参考訳(メタデータ) (2021-05-30T09:29:01Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - A Comprehensive Survey on Word Representation Models: From Classical to
State-Of-The-Art Word Representation Language Models [7.977161233209228]
調査では、異なる単語表現モデルとその表現力について調べる。
我々は様々なテキスト表現法を記述し、モデル設計はNLPの文脈で花を咲かせてきた。
ML および DL ベースの分類器,評価指標,およびこれらの単語を異なる NLP タスクに埋め込んだ場合の応用について概説する。
論文 参考訳(メタデータ) (2020-10-28T15:15:13Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。