論文の概要: LLM-TAKE: Theme Aware Keyword Extraction Using Large Language Models
- arxiv url: http://arxiv.org/abs/2312.00909v1
- Date: Fri, 1 Dec 2023 20:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 20:16:25.083225
- Title: LLM-TAKE: Theme Aware Keyword Extraction Using Large Language Models
- Title(参考訳): LLM-TAKE:大規模言語モデルを用いたキーワード抽出
- Authors: Reza Yousefi Maragheh, Chenhao Fang, Charan Chand Irugu, Parth Parikh,
Jason Cho, Jianpeng Xu, Saranyan Sukumar, Malay Patel, Evren Korpeoglu,
Sushant Kumar and Kannan Achan
- Abstract要約: 項目のテキストメタデータから推測される項目のキーワードを生成するために,Large Language Models (LLMs) を用いて検討する。
我々のモデリングフレームワークは、非情報的またはセンシティブなキーワードを出力することを避けて結果を微粒化するいくつかの段階を含む。
本稿では,Eコマース環境における商品の抽出的および抽象的テーマを生成するための2つのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.640773460677542
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Keyword extraction is one of the core tasks in natural language processing.
Classic extraction models are notorious for having a short attention span which
make it hard for them to conclude relational connections among the words and
sentences that are far from each other. This, in turn, makes their usage
prohibitive for generating keywords that are inferred from the context of the
whole text. In this paper, we explore using Large Language Models (LLMs) in
generating keywords for items that are inferred from the items textual
metadata. Our modeling framework includes several stages to fine grain the
results by avoiding outputting keywords that are non informative or sensitive
and reduce hallucinations common in LLM. We call our LLM-based framework
Theme-Aware Keyword Extraction (LLM TAKE). We propose two variations of
framework for generating extractive and abstractive themes for products in an E
commerce setting. We perform an extensive set of experiments on three real data
sets and show that our modeling framework can enhance accuracy based and
diversity based metrics when compared with benchmark models.
- Abstract(参考訳): キーワード抽出は自然言語処理の主要なタスクの一つである。
古典的抽出モデルは、相互に遠く離れている単語と文の間の関係関係を結論付けるのが困難である短い注意スパンを持つことで有名である。
これにより、テキスト全体の文脈から推測されるキーワードの生成に使用することが禁止される。
本稿では,文章メタデータから推測される項目のキーワードを生成するために,LLM(Large Language Models)を用いて検討する。
我々のモデリングフレームワークは、LLMに共通する幻覚を減らし、非情報的または敏感なキーワードを出力することを回避し、結果を微粒化するいくつかの段階を含む。
LLMベースのフレームワークであるTheme-Aware Keyword extract (LLM TAKE) と呼ぶ。
本稿では,Eコマース環境における商品の抽出的および抽象的テーマを生成するための2つのフレームワークを提案する。
3つの実際のデータセットについて広範な実験を行い、ベンチマークモデルと比較した場合、モデリングフレームワークが精度ベースと多様性ベースのメトリクスを強化できることを示します。
関連論文リスト
- Scaling Up Summarization: Leveraging Large Language Models for Long Text Extractive Summarization [0.27624021966289597]
本稿では,Large Language Models (LLM) を利用した抽出要約フレームワークであるEYEGLAXSを紹介する。
EYEGLAXSは、事実的および文法的整合性を保証するために抽出的な要約に焦点を当てている。
このシステムはPubMedやArXivといった有名なデータセットに新しいパフォーマンスベンチマークを設定する。
論文 参考訳(メタデータ) (2024-08-28T13:52:19Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - Comparative Study of Domain Driven Terms Extraction Using Large Language Models [0.0]
キーワードは、人間の理解とテキストデータの機械処理のギャップを埋める上で重要な役割を果たす。
本稿では,Llama2-7B,GPT-3.5,Falcon-7Bの3つの主要言語モデル (LLM) の利用を強調したキーワード抽出手法について述べる。
論文 参考訳(メタデータ) (2024-04-02T22:04:51Z) - Multi-modal Instruction Tuned LLMs with Fine-grained Visual Perception [63.03288425612792]
マルチモーダル参照から画素単位のオブジェクト認識と自然言語記述を生成できる汎用MLLMモデルであるbfAnyRefを提案する。
本モデルでは,領域レベルの参照表現生成とセグメンテーションの多様さを含む,複数のベンチマークにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-03-05T13:45:46Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - CODIS: Benchmarking Context-Dependent Visual Comprehension for Multimodal Large Language Models [58.95889895912716]
我々は、自由形式のテキストで提供されるコンテキストを用いて視覚的理解を高めるモデルの有効性を評価するために、CODISと名付けられた新しいベンチマークを導入する。
以上の結果から,MLLMは必ずしも人体性能に劣っていることが示唆された。
このことは、MLLMが視覚を文脈依存的に理解する能力を高めることの必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-21T08:21:12Z) - GIELLM: Japanese General Information Extraction Large Language Model
Utilizing Mutual Reinforcement Effect [0.0]
汎用情報抽出大言語モデル(GIELLM)について紹介する。
テキスト分類、感性分析、名前付きエンティティ認識、関係抽出、および一様入力出力スキーマを使用したイベント抽出を統合している。
このイノベーションは、このような多様なIEサブタスクを同時に扱うモデルの最初の例である。
論文 参考訳(メタデータ) (2023-11-12T13:30:38Z) - CompoundPiece: Evaluating and Improving Decompounding Performance of
Language Models [77.45934004406283]
複合語を構成語に分割する作業である「分解」を体系的に研究する。
We introduced a dataset of 255k compound and non-compound words across 56 various languages obtained from Wiktionary。
分割のための専用モデルを訓練するための新しい手法を導入する。
論文 参考訳(メタデータ) (2023-05-23T16:32:27Z) - CRITIC: Large Language Models Can Self-Correct with Tool-Interactive
Critiquing [139.77117915309023]
CRITICは、大規模な言語モデルに対して、ツールとのヒューマンインタラクションに似た方法で、自分たちのアウトプットの検証と修正を可能にする。
自由形式の質問応答、数学的プログラム合成、毒性低減を含む包括的評価は、CRITICがLLMの性能を一貫して向上することを証明している。
論文 参考訳(メタデータ) (2023-05-19T15:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。