論文の概要: How does fine-tuning improve sensorimotor representations in large language models?
- arxiv url: http://arxiv.org/abs/2603.03313v1
- Date: Mon, 09 Feb 2026 13:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.141088
- Title: How does fine-tuning improve sensorimotor representations in large language models?
- Title(参考訳): 微調整は大規模言語モデルにおける感性表現をどのように改善するか?
- Authors: Minghua Wu, Javier Conde, Pedro Reviriego, Marc Brysbaert,
- Abstract要約: 大規模言語モデル(LLM)は、重要な「身体的ギャップ」を示す
本研究では,タスク固有の微調整が,このギャップをいかに埋めるかについて検討する。
- 参考スコア(独自算出の注目度): 4.652723324101191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit a significant "embodiment gap", where their text-based representations fail to align with human sensorimotor experiences. This study systematically investigates whether and how task-specific fine-tuning can bridge this gap. Utilizing Representational Similarity Analysis (RSA) and dimension-specific correlation metrics, we demonstrate that the internal representations of LLMs can be steered toward more embodied, grounded patterns through fine-tuning. Furthermore, the results show that while sensorimotor improvements generalize robustly across languages and related sensory-motor dimensions, they are highly sensitive to the learning objective, failing to transfer across two disparate task formats.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキストベースの表現が人間の感覚運動者体験と一致しない、重要な「身体的ギャップ」を示す。
本研究では,タスク固有の微調整が,このギャップをいかに埋めるかを体系的に検討する。
表現類似度分析(Representational similarity Analysis, RSA)と次元別相関指標を用いて, LLMの内部表現を微調整によりより具現化, 接地パターンに向けて操ることができることを示した。
さらに, センサモレータの改良は, 言語や関連する感覚運動の次元にまたがって強固に一般化されているものの, 学習目標に非常に敏感であり, 2つの異なるタスク形式にまたがる伝達に失敗することを示した。
関連論文リスト
- LVLM-Aided Alignment of Task-Specific Vision Models [49.96265491629163]
タスク固有の視覚モデルは、高い領域において不可欠である。
本稿では,タスク固有の視覚モデルと人間のドメイン知識を協調する,新しい,効率的な手法を提案する。
提案手法は, モデル動作と人間の仕様との整合性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-12-26T11:11:25Z) - Understanding the Effects of Domain Finetuning on LLMs [60.874016669351874]
大規模医療言語モデルにおけるドメイン固有微調整に関する最初の体系的研究について述べる。
解析の結果,微調整は表現部分空間の小さな部分集合のみを修飾することがわかった。
サブ空間におけるこれらの変化を解釈するために、微調整によって引き起こされる方向パラメータシフトを明示的にキャプチャするチューニングベクトルを提案する。
論文 参考訳(メタデータ) (2025-10-10T13:14:06Z) - LLM Assertiveness can be Mechanistically Decomposed into Emotional and Logical Components [0.17188280334580197]
LLM(Large Language Models)は、しばしば過剰な自信を示し、高い文脈で不確実性のある情報を提示する。
我々は、人間の注釈付きアサーション性データセットを微調整したオープンソースのLlama 3.2モデルを使用している。
分析により,アサーションのコントラストに最も敏感な層が同定され,高いアサーティブ表現が感情的・論理的クラスタの2つのサブコンポーネントに分解されることが明らかとなった。
論文 参考訳(メタデータ) (2025-08-24T01:43:48Z) - SensorLM: Learning the Language of Wearable Sensors [50.95988682423808]
本稿では,自然言語によるウェアラブルセンサデータ理解を可能にするセンサ言語基盤モデルのファミリーであるSensorLMを紹介する。
本稿では,センサデータから統計的,構造的,意味的な情報を収集する階層的なキャプション生成パイプラインを提案する。
このアプローチにより、これまでで最大のセンサー言語データセットのキュレーションが可能となり、103,000人以上から5970万時間以上のデータを収集した。
論文 参考訳(メタデータ) (2025-06-10T17:13:09Z) - Transferring Linear Features Across Language Models With Model Stitching [65.74996520496195]
言語モデルの残差ストリーム間のアフィンマッピングは、モデル間で表現された特徴を転送するための安価な方法であることを示す。
小型モデルと大規模モデルは同様の表現空間を学習し、より小さなモデルでSAEなどの高価なコンポーネントをトレーニングし、FLOPの貯蓄でより大きなモデルに転送する動機付けをする。
論文 参考訳(メタデータ) (2025-06-07T01:03:25Z) - Sensitivity Meets Sparsity: The Impact of Extremely Sparse Parameter Patterns on Theory-of-Mind of Large Language Models [55.46269953415811]
ToM感受性パラメータを同定し、これらのパラメータの0.001%の摂動がToM性能を著しく低下させることを示す。
我々の結果は、モデルアライメントの強化、バイアス軽減、ヒューマンインタラクション用に設計されたAIシステムの改善に影響を及ぼす。
論文 参考訳(メタデータ) (2025-04-05T17:45:42Z) - SensorLLM: Aligning Large Language Models with Motion Sensors for Human Activity Recognition [13.796942110105313]
本研究では,Large Language Models(LLM)がセンサ時系列データからHAR(Human Activity Recognition)を実現するためのフレームワークであるSensorLLMを紹介する。
SensorLLMはSensor-Language Alignmentステージを通じて制限に対処する。
その後のタスク・アウェア・チューニングの段階では、HAR分類のモデルを洗練し、最先端の手法に適合または超越した性能を達成する。
論文 参考訳(メタデータ) (2024-10-14T15:30:41Z) - Unveiling the Generalization Power of Fine-Tuned Large Language Models [81.70754292058258]
大規模言語モデル(LLM)に固有の内在的一般化能力に微調整が及ぼす影響について検討する。
本研究の主目的は、生成タスクと分類タスクを微調整したモデルが、異なる領域やタスクに一般化する際に異なる振る舞いを示すことである。
生成タスクの微調整中にコンテキスト内学習戦略を統合することで、モデルの一般化能力を高めることができる。
論文 参考訳(メタデータ) (2024-03-14T08:18:59Z) - Exploring Spatial Schema Intuitions in Large Language and Vision Models [8.944921398608063]
大規模言語モデル(LLM)が言語ブロック構築に関する暗黙の人間の直感を効果的に捉えているかどうかを検討する。
驚くべきことに、モデル出力と人間の反応の相関が出現し、具体的体験と具体的なつながりのない適応性が明らかになる。
本研究は,大規模言語モデルによる言語,空間経験,計算間の相互作用の微妙な理解に寄与する。
論文 参考訳(メタデータ) (2024-02-01T19:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。