論文の概要: Mechanistic Interpretability of Socio-Political Frames in Language Models
- arxiv url: http://arxiv.org/abs/2510.03799v1
- Date: Sat, 04 Oct 2025 12:39:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.259372
- Title: Mechanistic Interpretability of Socio-Political Frames in Language Models
- Title(参考訳): 言語モデルにおける社会・政治フレームの機械論的解釈可能性
- Authors: Hadi Asghari, Sami Nenno,
- Abstract要約: 本稿では,大規模言語モデルによる深層認知フレームの生成と認識能力について検討する。
LLMは、特定のフレームを誘発し、ゼロショット設定でこれらのフレームを認識できるテキストを生成するのに非常に精通していることを実証する。
- 参考スコア(独自算出の注目度): 1.0026496861838448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the ability of large language models to generate and recognize deep cognitive frames, particularly in socio-political contexts. We demonstrate that LLMs are highly fluent in generating texts that evoke specific frames and can recognize these frames in zero-shot settings. Inspired by mechanistic interpretability research, we investigate the location of the `strict father' and `nurturing parent' frames within the model's hidden representation, identifying singular dimensions that correlate strongly with their presence. Our findings contribute to understanding how LLMs capture and express meaningful human concepts.
- Abstract(参考訳): 本稿では,特に社会・政治の文脈において,大規模言語モデルが深層認知フレームを生成・認識する能力について考察する。
LLMは、特定のフレームを誘発し、ゼロショット設定でこれらのフレームを認識できるテキストを生成するのに非常に精通していることを実証する。
機械的解釈可能性の研究に触発され,モデル内の「厳密な父親」と「育む親」のフレームの位置を調査し,その存在と強く相関する特異次元を同定した。
我々の研究は、LLMが有意義な人間の概念をいかに捉え、表現するかを理解するのに寄与する。
関連論文リスト
- Not Minds, but Signs: Reframing LLMs through Semiotics [0.0]
本稿では,Large Language Models (LLMs) に関するセミオティックな視点を論じる。
LLMが言語を理解したり、人間の思考をシミュレートしたりするのではなく、言語形式を再結合し、再テクスチャ化し、循環させることが主な機能であると提案する。
我々は文学、哲学、教育、文化生産の応用を探究する。
論文 参考訳(メタデータ) (2025-05-20T08:49:18Z) - LinguaLens: Towards Interpreting Linguistic Mechanisms of Large Language Models via Sparse Auto-Encoder [47.81850176849213]
スパースオートエンコーダ(SAE)に基づく大規模言語モデルの言語メカニズム解析のためのフレームワークを提案する。
我々は4次元(形態学、構文学、意味論、プラグマティクス)にわたる中国語と英語の言語的特徴を幅広く抽出する。
本研究は, LLMにおける言語知識の内在的表現, 層間および言語間分布のパターンを明らかにし, モデル出力の制御の可能性を示した。
論文 参考訳(メタデータ) (2025-02-27T18:16:47Z) - VladVA: Discriminative Fine-tuning of LVLMs [67.14293827774827]
CLIPのような対照的に訓練された視覚言語モデル(VLM)は、識別的視覚言語表現学習の事実上のアプローチとなっている。
我々は,LVLMの識別的微調整のための新たな訓練手法である「両世界のベスト」を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:54:27Z) - Explaining Multi-modal Large Language Models by Analyzing their Vision Perception [4.597864989500202]
本研究では,画像埋め込み成分に着目し,MLLMの解釈可能性を高める新しい手法を提案する。
オープンワールドのローカライゼーションモデルとMLLMを組み合わせることで、同じビジョンの埋め込みからテキストとオブジェクトのローカライゼーション出力を同時に生成できる新しいアーキテクチャを構築する。
論文 参考訳(メタデータ) (2024-05-23T14:24:23Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - "You Are An Expert Linguistic Annotator": Limits of LLMs as Analyzers of
Abstract Meaning Representation [60.863629647985526]
文意味構造の解析において, GPT-3, ChatGPT, および GPT-4 モデルの成功と限界について検討した。
モデルはAMRの基本形式を確実に再現でき、しばしばコアイベント、引数、修飾子構造をキャプチャできる。
全体としては,これらのモデルではセマンティック構造の側面を捉えることができるが,完全に正確なセマンティック解析や解析をサポートする能力には重要な制限が残されている。
論文 参考訳(メタデータ) (2023-10-26T21:47:59Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。