論文の概要: Metaphor identification using large language models: A comparison of RAG, prompt engineering, and fine-tuning
- arxiv url: http://arxiv.org/abs/2509.24866v2
- Date: Wed, 01 Oct 2025 14:06:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.815319
- Title: Metaphor identification using large language models: A comparison of RAG, prompt engineering, and fine-tuning
- Title(参考訳): 大規模言語モデルを用いたメタファー識別:RAG, プロンプトエンジニアリング, 微調整の比較
- Authors: Matteo Fuoli, Weihang Huang, Jeannette Littlemore, Sarah Turner, Ellen Wilding,
- Abstract要約: 本研究では,大言語モデル(LLM)が全文でメタファ識別を自動化する可能性について検討する。
i) 検索拡張生成(RAG) モデルにコードブックを付与し,その規則や例に基づいて注釈を付けるように指示する手法, (ii) タスク固有の言語命令を設計する手法, (iii) ハンドコードされたテキストでモデルを訓練してパフォーマンスを最適化するファインチューニング,の3つの手法を比較した。
- 参考スコア(独自算出の注目度): 0.6524460254566904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metaphor is a pervasive feature of discourse and a powerful lens for examining cognition, emotion, and ideology. Large-scale analysis, however, has been constrained by the need for manual annotation due to the context-sensitive nature of metaphor. This study investigates the potential of large language models (LLMs) to automate metaphor identification in full texts. We compare three methods: (i) retrieval-augmented generation (RAG), where the model is provided with a codebook and instructed to annotate texts based on its rules and examples; (ii) prompt engineering, where we design task-specific verbal instructions; and (iii) fine-tuning, where the model is trained on hand-coded texts to optimize performance. Within prompt engineering, we test zero-shot, few-shot, and chain-of-thought strategies. Our results show that state-of-the-art closed-source LLMs can achieve high accuracy, with fine-tuning yielding a median F1 score of 0.79. A comparison of human and LLM outputs reveals that most discrepancies are systematic, reflecting well-known grey areas and conceptual challenges in metaphor theory. We propose that LLMs can be used to at least partly automate metaphor identification and can serve as a testbed for developing and refining metaphor identification protocols and the theory that underpins them.
- Abstract(参考訳): メタファーは言論の広汎な特徴であり、認知、感情、イデオロギーを調べるための強力なレンズである。
しかし、大規模な分析は、メタファーの文脈に敏感な性質のため、手動のアノテーションの必要性によって制約されている。
本研究では,大言語モデル(LLM)が全文でメタファ識別を自動化する可能性について検討する。
3つの方法を比較します。
(i)検索強化世代(RAG)は、そのモデルにコードブックを設け、その規則及び例に基づいて注釈を付けるよう指示する。
(二)素早い工学で、タスク固有の動詞の指示を設計し、
(iii)微調整により、手書きテキストでモデルを訓練し、パフォーマンスを最適化する。
迅速なエンジニアリングでは、ゼロショット、少数ショット、チェーンオブ思考の戦略をテストします。
以上の結果から, 最先端のクローズドソースLCMは精度が高く, 微調整では0.79点のF1スコアが得られた。
人間とLLMのアウトプットを比較すると、ほとんどの相違は体系的であり、よく知られた灰色の領域と比喩理論における概念的課題を反映していることがわかる。
LLMは少なくとも部分的にメタファ識別を自動化し、メタファ識別プロトコルの開発と精錬のためのテストベッドとして機能し、それらの基盤となる理論として利用できることを提案する。
関連論文リスト
- Enhancing multimodal analogical reasoning with Logic Augmented Generation [1.3654846342364308]
本稿では,意味知識グラフを通じてテキストの明示的表現を利用する論理拡張生成(LAG)フレームワークを適用する。
本手法では,暗黙的な意味を表す拡張知識グラフを3つ生成し,ドメインに関わらず,ラベルのないマルチモーダルデータを推論する。
その結果、この統合されたアプローチは現在のベースラインを超え、視覚的メタファーを理解する上で人間よりも優れた性能を示し、より説明可能な推論プロセスを可能にした。
論文 参考訳(メタデータ) (2025-04-15T13:47:55Z) - Contextualize-then-Aggregate: Circuits for In-Context Learning in Gemma-2 2B [51.74607395697567]
In-Context Learning (ICL)は、大規模言語モデル(LLM)の興味深い能力である。
我々は5つの自然主義ICLタスクに対してGemma-2 2Bにおける情報フローを因果介入を用いて同定する。
このモデルでは,2段階戦略を用いてタスク情報を推論し,コンテキスト化-then-aggregateと呼ぶ。
論文 参考訳(メタデータ) (2025-03-31T18:33:55Z) - A Dual-Perspective Metaphor Detection Framework Using Large Language Models [29.18537460293431]
メタファ検出のための新しいデュアルパースペクティブフレームワークであるDMDを提案する。
比喩理論の暗黙的および明示的な応用を利用して比喩検出においてLLMを導く。
従来の手法と比較して、我々のフレームワークはより透過的な推論プロセスを提供し、より信頼性の高い予測を提供する。
論文 参考訳(メタデータ) (2024-12-23T06:50:04Z) - VladVA: Discriminative Fine-tuning of LVLMs [67.14293827774827]
CLIPのような対照的に訓練された視覚言語モデル(VLM)は、識別的視覚言語表現学習の事実上のアプローチとなっている。
我々は,LVLMの識別的微調整のための新たな訓練手法である「両世界のベスト」を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:54:27Z) - Leveraging Pre-trained Language Model for Speech Sentiment Analysis [58.78839114092951]
本研究では、事前学習された言語モデルを用いて、文章の感情情報を学習し、音声の感情分析を行う。
本稿では,言語モデルを用いた擬似ラベルに基づく半教師付き訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T20:15:21Z) - Metaphor Generation with Conceptual Mappings [58.61307123799594]
我々は、関連する動詞を置き換えることで、リテラル表現を与えられた比喩文を生成することを目指している。
本稿では,認知領域間の概念マッピングを符号化することで生成過程を制御することを提案する。
教師なしCM-Lexモデルは,近年のディープラーニングメタファ生成システムと競合することを示す。
論文 参考訳(メタデータ) (2021-06-02T15:27:05Z) - MERMAID: Metaphor Generation with Symbolism and Discriminative Decoding [22.756157298168127]
メタファーとシンボル間の理論的に基底的な接続に基づいて,並列コーパスを自動構築する手法を提案する。
生成タスクには、並列データに微調整されたシーケンスモデルへのシーケンスの復号を導くためのメタファ判別器を組み込んだ。
課題に基づく評価では、比喩のない詩に比べて、比喩で強化された人文詩が68%の時間を好むことが示されている。
論文 参考訳(メタデータ) (2021-03-11T16:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。