論文の概要: Learning the Wrong Lessons: Syntactic-Domain Spurious Correlations in Language Models
- arxiv url: http://arxiv.org/abs/2509.21155v1
- Date: Thu, 25 Sep 2025 13:42:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.944799
- Title: Learning the Wrong Lessons: Syntactic-Domain Spurious Correlations in Language Models
- Title(参考訳): 誤りの教訓を学習する:言語モデルにおける統語的-主体的純粋相関
- Authors: Chantal Shaib, Vinith M. Suriyakumar, Levent Sagun, Byron C. Wallace, Marzyeh Ghassemi,
- Abstract要約: タスク命令ペアにおける構文テンプレート,ドメイン,セマンティクスを特徴付ける。
構文とドメインの相関は性能を低下させる可能性がある。
- 参考スコア(独自算出の注目度): 31.57185140334229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For an LLM to correctly respond to an instruction it must understand both the semantics and the domain (i.e., subject area) of a given task-instruction pair. However, syntax can also convey implicit information Recent work shows that syntactic templates--frequent sequences of Part-of-Speech (PoS) tags--are prevalent in training data and often appear in model outputs. In this work we characterize syntactic templates, domain, and semantics in task-instruction pairs. We identify cases of spurious correlations between syntax and domain, where models learn to associate a domain with syntax during training; this can sometimes override prompt semantics. Using a synthetic training dataset, we find that the syntactic-domain correlation can lower performance (mean 0.51 +/- 0.06) on entity knowledge tasks in OLMo-2 models (1B-13B). We introduce an evaluation framework to detect this phenomenon in trained models, and show that it occurs on a subset of the FlanV2 dataset in open (OLMo-2-7B; Llama-4-Maverick), and closed (GPT-4o) models. Finally, we present a case study on the implications for safety finetuning, showing that unintended syntactic-domain correlations can be used to bypass refusals in OLMo-2-7B Instruct and GPT-4o. Our findings highlight two needs: (1) to explicitly test for syntactic-domain correlations, and (2) to ensure syntactic diversity in training data, specifically within domains, to prevent such spurious correlations.
- Abstract(参考訳): LLMが命令に正しく応答するには、与えられたタスク命令ペアのセマンティクスとドメイン(主題領域)の両方を理解する必要がある。
しかし、構文は暗黙の情報を伝達することも可能であり、最近の研究によると、構文テンプレート(Part-of-Speech(PoS)タグの頻繁なシーケンス)がトレーニングデータで広く使われ、しばしばモデル出力に現れる。
本研究では,タスク・インストラクション・ペアにおける構文テンプレート,ドメイン,セマンティクスを特徴付ける。
私たちは、モデルがトレーニング中にドメインと構文を関連付けることを学習する、構文とドメインの間の急激な相関のケースを特定します。
合成学習データセットを用いて,OLMo-2モデル(1B-13B)におけるエンティティ知識タスクの性能(平均0.51+/-0.06)を低下させる。
我々は,この現象を訓練されたモデルで検出するための評価フレームワークを導入し,オープン(OLMo-2-7B; Llama-4-Maverick)およびクローズド(GPT-4o)モデルにおいてFlanV2データセットのサブセットで発生することを示す。
最後に,OLMo-2-7B 命令と GPT-4o 命令の拒絶を回避するために,意図しない構文ドメイン相関が有効であることを示す。
本研究は,(1)構文-ドメイン相関を明示的に検証すること,(2)学習データ,特にドメイン内での構文的多様性を確保すること,の2つのニーズを強調した。
関連論文リスト
- Beyond Memorization: Assessing Semantic Generalization in Large Language Models Using Phrasal Constructions [3.0906699069248806]
Construction Grammar (CxG) は、一般化をテストするための精神言語学的基盤となるフレームワークである。
我々のデータセットは英語のフレーズ構造で構成されており、話者は共通の場所のインスタンス化を抽象化できることが知られている。
その結果、GPT-o1を含む最先端モデルでは、第2タスクで40%以上の性能低下が見られた。
論文 参考訳(メタデータ) (2025-01-08T18:15:10Z) - Detection and Measurement of Syntactic Templates in Generated Text [58.111650675717414]
モデルにおける一般的な反復を特徴付けるための構文的特徴の解析を行う。
モデルでは、下流のタスクにおいて、人間の参照テキストよりも高いレートでテンプレートテキストを生成する傾向にある。
論文 参考訳(メタデータ) (2024-06-28T19:34:23Z) - A Hybrid Approach To Aspect Based Sentiment Analysis Using Transfer Learning [3.30307212568497]
本稿では,移動学習を用いたアスペクトベース感性分析のためのハイブリッド手法を提案する。
このアプローチは、大きな言語モデル(LLM)と従来の構文的依存関係の両方の長所を利用して、弱い教師付きアノテーションを生成することに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-25T23:02:33Z) - Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - Syntax and Semantics Meet in the "Middle": Probing the Syntax-Semantics
Interface of LMs Through Agentivity [68.8204255655161]
このような相互作用を探索するためのケーススタディとして,作用性のセマンティックな概念を提示する。
これは、LMが言語アノテーション、理論テスト、発見のためのより有用なツールとして役立つ可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T16:24:01Z) - Graph Adaptive Semantic Transfer for Cross-domain Sentiment
Classification [68.06496970320595]
クロスドメイン感情分類(CDSC)は、ソースドメインから学んだ伝達可能なセマンティクスを使用して、ラベルなしのターゲットドメインにおけるレビューの感情を予測することを目的としている。
本稿では、単語列と構文グラフの両方からドメイン不変セマンティクスを学習できる適応型構文グラフ埋め込み法であるグラフ適応意味伝達(GAST)モデルを提案する。
論文 参考訳(メタデータ) (2022-05-18T07:47:01Z) - ASPER: Attention-based Approach to Extract Syntactic Patterns denoting
Semantic Relations in Sentential Context [2.175490119265481]
本稿では,意味的関係を示すエンティティ間の統語的パターンを意味的文脈で抽出する,注意に基づく教師付きディープラーニングモデルASPERを提案する。
我々は,6つのデータセットにおけるhypnym-hypernym, cause-effect, meronym-holonymの3つの意味関係について,asperの性能を検証する。
これらの意味関係について、ASPERは文中の一対のエンティティ間のそのような関係の存在を反映した構文パターンのコレクションを自動的に識別することができる。
論文 参考訳(メタデータ) (2021-04-04T02:36:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。