論文の概要: Large Language Models for Conducting Advanced Text Analytics Information
Systems Research
- arxiv url: http://arxiv.org/abs/2312.17278v1
- Date: Wed, 27 Dec 2023 19:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 12:39:01.477601
- Title: Large Language Models for Conducting Advanced Text Analytics Information
Systems Research
- Title(参考訳): 高度なテキスト分析情報システム研究のための大規模言語モデル
- Authors: Benjamin M. Ampel, Chi-Heng Yang, James Hu, and Hsinchun Chen
- Abstract要約: 大規模言語モデル(LLM)は、巨大な構造化されていないテキストデータセットから洞察を処理および抽出するツールとして登場した。
LLMの運用方法を理解するために,情報システム研究を支援するためのテキスト分析用TAISR(Text Analytics for Information Systems Research)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.913568041651961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exponential growth of digital content has generated massive textual
datasets, necessitating advanced analytical approaches. Large Language Models
(LLMs) have emerged as tools capable of processing and extracting insights from
massive unstructured textual datasets. However, how to leverage LLMs for
text-based Information Systems (IS) research is currently unclear. To assist IS
research in understanding how to operationalize LLMs, we propose a Text
Analytics for Information Systems Research (TAISR) framework. Our proposed
framework provides detailed recommendations grounded in IS and LLM literature
on how to conduct meaningful text-based IS research. We conducted three case
studies in business intelligence using our TAISR framework to demonstrate its
application across several IS research contexts. We also outline potential
challenges and limitations in adopting LLMs for IS. By offering a systematic
approach and evidence of its utility, our TAISR framework contributes to future
IS research streams looking to incorporate powerful LLMs for text analytics.
- Abstract(参考訳): デジタルコンテンツの指数的成長は大量のテキストデータセットを生成し、高度な分析アプローチを必要とする。
大規模言語モデル(llm)は、巨大な非構造化テキストデータセットから洞察を処理し抽出するツールとして登場した。
しかし、テキストベース情報システム(IS)研究にLLMを利用する方法はまだ不明である。
LLMの運用方法を理解するためのIS研究を支援するために,情報システム研究のためのテキスト分析フレームワーク(TAISR)を提案する。
提案フレームワークは,IS と LLM の文献に根ざした,有意義なテキストベースの IS 研究の実施方法に関する詳細な勧告を提供する。
taisrフレームワークを使用して、ビジネスインテリジェンスに関する3つのケーススタディを行い、いくつかのis研究のコンテキストでその応用を実証しました。
また、IS に LLM を採用する際の潜在的な課題と限界についても概説する。
我々のTAISRフレームワークは、その実用性に関する体系的なアプローチと証拠を提供することで、テキスト分析に強力なLLMを組み込もうとする将来のIS研究ストリームに寄与する。
関連論文リスト
- Unveiling the Potential of LLM-Based ASR on Chinese Open-Source Datasets [22.29915616018026]
LLM(Large Language Models)は、様々なNLPタスクにおいて非並列の有効性を示す。
本研究の目的は,音声エンコーダ,LLM,プロジェクタモジュールの様々な構成の影響を評価することである。
本研究では,3段階の学習手法を導入し,モデルが聴覚情報とテキスト情報を整合させる能力を高めることを目的とした。
論文 参考訳(メタデータ) (2024-05-03T14:35:58Z) - Unsupervised Information Refinement Training of Large Language Models
for Retrieval-Augmented Generation [133.52393894760107]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Quantitative knowledge retrieval from large language models [4.155711233354597]
大規模言語モデル(LLM)は、説得力のある自然言語配列を生成する能力について広く研究されている。
本稿では,データ解析作業を支援するための定量的知識検索のメカニズムとして,LLMの実現可能性について検討する。
論文 参考訳(メタデータ) (2024-02-12T16:32:37Z) - Large Language Models for Generative Information Extraction: A Survey [93.28676955662002]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、ITの一般的な方法論、ITデータセットの構築、ITモデルのトレーニング、異なるモダリティ、ドメイン、アプリケーションへのアプリケーションを含む、文献を体系的にレビューする。
また、ITの潜在的な落とし穴とそれに対する批判、および既存の戦略の現在の欠陥を指摘し、実りある研究の道筋を提案する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - How to use LLMs for Text Analysis [0.0]
本稿では,社会科学における多目的テキスト分析手法としてLarge Language Models (LLM)を紹介する。
LLMは使いやすく、安価で、高速で、幅広いテキスト分析タスクに適用できるため、多くの学者はLLMがテキスト解析の方法を変えると考えている。
論文 参考訳(メタデータ) (2023-07-24T19:54:15Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。