論文の概要: Leveraging Large Language Models for Automated Definition Extraction with TaxoMatic A Case Study on Media Bias
- arxiv url: http://arxiv.org/abs/2504.00343v1
- Date: Tue, 01 Apr 2025 01:47:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:22:58.974560
- Title: Leveraging Large Language Models for Automated Definition Extraction with TaxoMatic A Case Study on Media Bias
- Title(参考訳): タコマティックによる定義自動抽出のための大規模言語モデルの活用 : メディアバイアスを事例として
- Authors: Timo Spinde, Luyang Lin, Smi Hinterreiter, Isao Echizen,
- Abstract要約: TaxoMaticは、学術文献からの定義抽出を自動化するフレームワークである。
手動で評価された2,398項目のデータセットに基づいて分析し、Claude-3-sonnetは関連分類と定義抽出の両方において最良の結果を得た。
- 参考スコア(独自算出の注目度): 6.581006293385288
- License:
- Abstract: This paper introduces TaxoMatic, a framework that leverages large language models to automate definition extraction from academic literature. Focusing on the media bias domain, the framework encompasses data collection, LLM-based relevance classification, and extraction of conceptual definitions. Evaluated on a dataset of 2,398 manually rated articles, the study demonstrates the frameworks effectiveness, with Claude-3-sonnet achieving the best results in both relevance classification and definition extraction. Future directions include expanding datasets and applying TaxoMatic to additional domains.
- Abstract(参考訳): 本稿では,学術文献から定義抽出を自動化するために,大規模言語モデルを活用するフレームワークであるTaxoMaticを紹介する。
メディアバイアス領域に着目して、このフレームワークはデータ収集、LLMに基づく関連分類、概念定義の抽出を含む。
2,398項目のデータセットを手作業で評価し、Claude-3-sonnetが関連分類と定義抽出の両方で最高の結果を得るという、フレームワークの有効性を実証した。
将来的にはデータセットの拡大やTaxoMaticを他のドメインに適用する予定である。
関連論文リスト
- Benchmarking pre-trained text embedding models in aligning built asset information [0.0]
本研究では、組立資産情報とドメイン固有の技術的概念の整合性を評価するため、最先端のテキスト埋め込みモデルの比較ベンチマークを提案する。
提案した6つのデータセットを対象としたベンチマークの結果は、クラスタリング、検索、再ランク付けの3つのタスクをカバーし、将来のドメイン適応技術の研究の必要性を強調している。
論文 参考訳(メタデータ) (2024-11-18T20:54:17Z) - Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - CiteFusion: An Ensemble Framework for Citation Intent Classification Harnessing Dual-Model Binary Couples and SHAP Analyses [1.7812428873698407]
本研究は,多クラスCitation Intent Classificationタスクに対処するアンサンブルフレームワークであるCiteFusionを紹介する。
CiteFusionは最先端のパフォーマンスを実現し、Macro-F1スコアはSciCiteが89.60%、ACL-ARCが76.24%だった。
我々は、SciCiteで開発されたCiteFusionモデルを利用して、引用意図を分類するWebベースのアプリケーションをリリースする。
論文 参考訳(メタデータ) (2024-07-18T09:29:33Z) - Comparative Study of Domain Driven Terms Extraction Using Large Language Models [0.0]
キーワードは、人間の理解とテキストデータの機械処理のギャップを埋める上で重要な役割を果たす。
本稿では,Llama2-7B,GPT-3.5,Falcon-7Bの3つの主要言語モデル (LLM) の利用を強調したキーワード抽出手法について述べる。
論文 参考訳(メタデータ) (2024-04-02T22:04:51Z) - Improving Attributed Text Generation of Large Language Models via Preference Learning [28.09715554543885]
属性タスクを選好学習としてモデル化し,自動選好最適化フレームワークを導入する。
APOは、回答品質の高い最先端の引用F1を達成する。
論文 参考訳(メタデータ) (2024-03-27T09:19:13Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。