論文の概要: LlamaLens: Specialized Multilingual LLM for Analyzing News and Social Media Content
- arxiv url: http://arxiv.org/abs/2410.15308v1
- Date: Sun, 20 Oct 2024 06:37:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:21:24.838216
- Title: LlamaLens: Specialized Multilingual LLM for Analyzing News and Social Media Content
- Title(参考訳): LlamaLens:ニュース・ソーシャルメディアコンテンツ分析のための多言語LLM
- Authors: Mohamed Bayan Kmainasi, Ali Ezzat Shahroor, Maram Hasanain, Sahinur Rahman Laskar, Naeemul Hassan, Firoj Alam,
- Abstract要約: 大規模言語モデル(LLM)は、様々な分野にわたる汎用タスクソルバとして顕著な成功を収めている。
本研究では,LlamaLens という特殊な LLM を開発し,多言語でニュースやソーシャルメディアのコンテンツを分析することに焦点を当てた。
LlamaLensは16個のテストセットで現在の最先端(SOTA)よりも優れ、10個のテストセットで同等のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 9.539308087147134
- License:
- Abstract: Large Language Models (LLMs) have demonstrated remarkable success as general-purpose task solvers across various fields, including NLP, healthcare, finance, and law. However, their capabilities remain limited when addressing domain-specific problems, particularly in downstream NLP tasks. Research has shown that models fine-tuned on instruction-based downstream NLP datasets outperform those that are not fine-tuned. While most efforts in this area have primarily focused on resource-rich languages like English and broad domains, little attention has been given to multilingual settings and specific domains. To address this gap, this study focuses on developing a specialized LLM, LlamaLens, for analyzing news and social media content in a multilingual context. To the best of our knowledge, this is the first attempt to tackle both domain specificity and multilinguality, with a particular focus on news and social media. Our experimental setup includes 19 tasks, represented by 52 datasets covering Arabic, English, and Hindi. We demonstrate that LlamaLens outperforms the current state-of-the-art (SOTA) on 16 testing sets, and achieves comparable performance on 10 sets. We make the models and resources publicly available for the research community.(https://huggingface.co/QCRI)
- Abstract(参考訳): 大規模言語モデル (LLM) は、NLP、医療、金融、法など、様々な分野の汎用タスクソルバとして、目覚ましい成功を収めている。
しかし、その能力はドメイン固有の問題、特に下流のNLPタスクに対処する際に制限される。
インストラクションベースの下流NLPデータセットに基づいて微調整されたモデルは、微調整されていないモデルよりも優れていることが研究で示されている。
この分野のほとんどの取り組みは、主に英語や広義のドメインのようなリソース豊富な言語に焦点を当ててきたが、多言語設定や特定のドメインにはほとんど関心が向けられていない。
このギャップに対処するため,多言語文脈でニュースやソーシャルメディアのコンテンツを分析するためのLLM(LlamaLens)の開発に焦点をあてた。
私たちの知る限りでは、これはドメインの特異性と多言語性の両方に取り組む最初の試みであり、特にニュースやソーシャルメディアに焦点を当てている。
実験装置には、アラビア語、英語、ヒンディー語をカバーする52のデータセットで表される19のタスクが含まれています。
LlamaLensは16個のテストセットで現在の最先端(SOTA)よりも優れ、10個のテストセットで同等のパフォーマンスを実現している。
研究コミュニティ向けに、モデルとリソースを公開しています。
(https://huggingface.co/QCRI)
関連論文リスト
- XTRUST: On the Multilingual Trustworthiness of Large Language Models [14.128810448194699]
大規模言語モデル(LLM)は、自然言語処理(NLP)タスクにまたがる顕著な機能を示している。
現在AIコミュニティが占めている重要な質問は、これらのモデルの能力と制限に関するものだ。
Xは、最初の総合的な多言語信頼性ベンチマークである。
論文 参考訳(メタデータ) (2024-09-24T05:38:33Z) - Native vs Non-Native Language Prompting: A Comparative Analysis [8.340817502435328]
本研究では,12のアラビアデータセットに関連付けられた11のNLPタスクに対する異なるプロンプト戦略(ネイティブ対非ネイティブ)について検討した。
以上の結果から,非ネイティブプロンプトは平均して最善であり,その後に混合プロンプトとネイティブプロンプトが続くことが示唆された。
論文 参考訳(メタデータ) (2024-09-11T06:59:37Z) - Do Large Language Models Speak All Languages Equally? A Comparative Study in Low-Resource Settings [12.507989493130175]
大規模言語モデル (LLM) は自然言語処理 (NLP) に大きな関心を寄せている。
近年の研究では、低リソース言語におけるLLMの限界が強調されている。
英語からバングラ語、ヒンディー語、ウルドゥー語に翻訳することで、感情と憎悪の音声タスクのデータセットを提示する。
論文 参考訳(メタデータ) (2024-08-05T05:09:23Z) - A Study on Scaling Up Multilingual News Framing Analysis [23.80807884935475]
本研究では,クラウドソーシングによるデータセット生成の可能性を検討する。
まず、英語ニュース以外のフレーミング分析を多言語文脈に拡張する。
また、ベンガルとポルトガルの移民と同性結婚に関する新しい基準も提示する。
論文 参考訳(メタデータ) (2024-04-01T21:02:18Z) - LLMs Are Few-Shot In-Context Low-Resource Language Learners [59.74451570590808]
In-context Learning (ICL) は、大規模言語モデル(LLM)に、表現不足の言語で多様なタスクを実行する権限を与える。
ICLとその言語間変動(X-ICL)を25の低リソース言語と7の比較的高リソース言語で検討した。
本研究は,LLMの低リソース理解品質向上における文脈内情報の重要性を論じる。
論文 参考訳(メタデータ) (2024-03-25T07:55:29Z) - Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - UltraLink: An Open-Source Knowledge-Enhanced Multilingual Supervised
Fine-tuning Dataset [69.33424532827608]
オープンソースの大規模言語モデル(LLM)は、様々な分野において大きな強みを持っている。
本研究では,オープンソースの多言語教師付き微調整データセットを構築する。
結果として得られたUltraLinkデータセットは、5つの言語にわたる約100万のサンプルで構成されている。
論文 参考訳(メタデータ) (2024-02-07T05:05:53Z) - CulturaX: A Cleaned, Enormous, and Multilingual Dataset for Large
Language Models in 167 Languages [86.90220551111096]
大規模言語モデル(LLM)のトレーニングデータセットは、完全には公開されないことが多い。
我々は167言語で6.3兆のトークンを持つ相当な多言語データセットであるCulturaXを紹介する。
論文 参考訳(メタデータ) (2023-09-17T23:49:10Z) - One Law, Many Languages: Benchmarking Multilingual Legal Reasoning for Judicial Support [18.810320088441678]
この研究は、法域に対する新しいNLPベンチマークを導入している。
エンフロング文書(最大50Kトークン)の処理、エンフドメイン固有の知識(法的テキストに具体化されている)、エンフマルチリンガル理解(5つの言語をカバーしている)の5つの重要な側面においてLCMに挑戦する。
我々のベンチマークにはスイスの法体系からの多様なデータセットが含まれており、基礎となる非英語、本質的には多言語法体系を包括的に研究することができる。
論文 参考訳(メタデータ) (2023-06-15T16:19:15Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - Learning Domain-Specialised Representations for Cross-Lingual Biomedical
Entity Linking [66.76141128555099]
言語横断型バイオメディカルエンティティリンクタスク(XL-BEL)を提案する。
まず、標準単言語英語BELタスクを超えて、標準単言語および多言語LMと同様に、標準的な知識に依存しない能力について検討する。
次に、リソースに富んだ言語からリソースに乏しい言語にドメイン固有の知識を移すことの課題に対処する。
論文 参考訳(メタデータ) (2021-05-30T00:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。