論文の概要: Ranking Entities along Conceptual Space Dimensions with LLMs: An Analysis of Fine-Tuning Strategies
- arxiv url: http://arxiv.org/abs/2402.15337v2
- Date: Wed, 5 Jun 2024 10:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 01:01:43.441002
- Title: Ranking Entities along Conceptual Space Dimensions with LLMs: An Analysis of Fine-Tuning Strategies
- Title(参考訳): LLMを用いた概念空間次元のランク付け:微調整戦略の解析
- Authors: Nitesh Kumar, Usashi Chatterjee, Steven Schockaert,
- Abstract要約: 我々は特に、与えられた概念空間次元に応じてエンティティをランク付けするタスクに焦点をあてる。
得られたモデルのランク付け能力が知覚的・主観的特徴に移行するかどうかを解析する。
- 参考スコア(独自算出の注目度): 16.056028563680584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conceptual spaces represent entities in terms of their primitive semantic features. Such representations are highly valuable but they are notoriously difficult to learn, especially when it comes to modelling perceptual and subjective features. Distilling conceptual spaces from Large Language Models (LLMs) has recently emerged as a promising strategy, but existing work has been limited to probing pre-trained LLMs using relatively simple zero-shot strategies. We focus in particular on the task of ranking entities according to a given conceptual space dimension. Unfortunately, we cannot directly fine-tune LLMs on this task, because ground truth rankings for conceptual space dimensions are rare. We therefore use more readily available features as training data and analyse whether the ranking capabilities of the resulting models transfer to perceptual and subjective features. We find that this is indeed the case, to some extent, but having at least some perceptual and subjective features in the training data seems essential for achieving the best results.
- Abstract(参考訳): 概念空間は、それらの原始的な意味的特徴の観点でエンティティを表現する。
このような表現は非常に貴重であるが、特に知覚的特徴や主観的特徴をモデル化する場合には、学習が困難であることが知られている。
概念空間をLLM(Large Language Models)から拡張することは,近年,有望な戦略として浮上しているが,既存の作業は,比較的単純なゼロショット戦略を用いて,事前学習されたLLMの探索に限られている。
我々は特に、与えられた概念空間次元に応じてエンティティをランク付けするタスクに焦点をあてる。
残念なことに、概念空間次元の基底真理ランキングは稀であるため、このタスクでは直接微調整はできない。
したがって、より容易に利用できる機能をトレーニングデータとして使用し、結果のモデルのランキング能力が知覚的および主観的特徴に移行するかどうかを分析する。
しかし、トレーニングデータに少なくともいくつかの知覚的、主観的特徴を持つことは、最高の結果を達成するのに不可欠である。
関連論文リスト
- Generalization v.s. Memorization: Tracing Language Models' Capabilities Back to Pretraining Data [76.90128359866462]
大規模言語モデルにおける一般化と記憶の相互作用について検討する。
各種のオープンソースLLMとその事前学習コーパスを用いて、モデルのサイズが大きくなるにつれて、タスク関連$n$-gramのペアデータの重要性が増すのを観察する。
その結果,LLMの能力は,十分なタスク関連事前学習データによる記憶と一般化の微妙なバランスから生じるという仮説を支持した。
論文 参考訳(メタデータ) (2024-07-20T21:24:40Z) - Large Vision-Language Models as Emotion Recognizers in Context Awareness [14.85890824622433]
文脈対応感情認識(CAER)は、様々な文脈から感情を知覚する必要がある複雑で重要なタスクである。
以前のアプローチは主に、イメージから感情的な手がかりを抽出する洗練されたアーキテクチャを設計することに焦点を当てていた。
本稿では,LVLM(Large Vision-Language Models)を活用したCAERタスクの実現の可能性について,体系的に検討する。
論文 参考訳(メタデータ) (2024-07-16T01:28:06Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - GSR-BENCH: A Benchmark for Grounded Spatial Reasoning Evaluation via Multimodal LLMs [3.2688425993442696]
画像中の物体間の空間的関係を理解する能力は、視覚的推論の重要な構成要素である。
我々は、以前リリースされたWhat'sUpデータセットを拡張し、空間関係理解のための新しい包括的評価を提案する。
論文 参考訳(メタデータ) (2024-06-19T06:15:26Z) - SpaRC and SpaRP: Spatial Reasoning Characterization and Path Generation for Understanding Spatial Reasoning Capability of Large Language Models [70.01883340129204]
空間推論は 生物学的と人工知能の両方において 重要な要素です
本稿では,現在最先端の大規模言語モデル (LLM) の空間的推論能力について包括的に検討する。
論文 参考訳(メタデータ) (2024-06-07T01:06:34Z) - Reasoning about concepts with LLMs: Inconsistencies abound [13.042591838719936]
大きな言語モデル(LLM)は、しばしばその知識に重大な矛盾を示し、示す。
特に,多種多種多種多種多様のLCMの軽量化を図り,その性能を著しく向上させることができた。
論文 参考訳(メタデータ) (2024-05-30T15:38:54Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Cabbage Sweeter than Cake? Analysing the Potential of Large Language
Models for Learning Conceptual Spaces [18.312837741635207]
概念空間を学習するための大規模言語モデルの可能性を探る。
実験の結果,LLMは意味のある表現の学習に利用できることがわかった。
また、BERTファミリーの微調整モデルでは、最大のGPT-3モデルにマッチしたり、性能を上回ります。
論文 参考訳(メタデータ) (2023-10-09T07:41:19Z) - Learning Models as Functionals of Signed-Distance Fields for
Manipulation Planning [51.74463056899926]
本研究では,シーン内のオブジェクトを表す符号付き距離場の目的を学習する,最適化に基づく操作計画フレームワークを提案する。
オブジェクトを符号付き距離場として表現することは、ポイントクラウドや占有率の表現よりも高い精度で、様々なモデルの学習と表現を可能にする。
論文 参考訳(メタデータ) (2021-10-02T12:36:58Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。