論文の概要: Use of Large Language Models for Stance Classification
- arxiv url: http://arxiv.org/abs/2309.13734v1
- Date: Sun, 24 Sep 2023 19:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 17:53:04.155495
- Title: Use of Large Language Models for Stance Classification
- Title(参考訳): 姿勢分類における大規模言語モデルの利用
- Authors: Iain J. Cruickshank and Lynnette Hui Xian Ng
- Abstract要約: スタンス検出は、著者の関心事に対する視点を予測するタスクである。
現在の姿勢検出法は文の手動アノテーションに頼り、次に教師付き機械学習モデルを訓練する。
本研究では,大規模言語モデル(LLM)を用いた姿勢分類の課題について検討する。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stance detection, the task of predicting an author's viewpoint towards a
subject of interest, has long been a focal point of research. Current stance
detection methods predominantly rely on manual annotation of sentences,
followed by training a supervised machine learning model. This manual
annotation process, however, imposes limitations on the model's ability to
fully comprehend the stances in the sentence and hampers its potential to
generalize across different contexts. In this study, we investigate the use of
Large Language Models (LLMs) for the task of stance classification, with an
absolute minimum use of human labels. We scrutinize four distinct types of
prompting schemes combined with LLMs, comparing their accuracies with manual
stance determination. Our study reveals that while LLMs can match or sometimes
even exceed the benchmark results in each dataset, their overall accuracy is
not definitively better than what can be produced by supervised models. This
suggests potential areas for improvement in the stance classification for LLMs.
The application of LLMs, however, opens up promising avenues for unsupervised
stance detection, thereby curtailing the need for manual collection and
annotation of stances. This not only streamlines the process but also paves the
way for expanding stance detection capabilities across languages. Through this
paper, we shed light on the stance classification abilities of LLMs, thereby
contributing valuable insights that can guide future advancements in this
domain.
- Abstract(参考訳): 興味のある対象に対する著者の視点を予測するタスクである姿勢検出は、長い間研究の焦点となっている。
現在のスタンス検出法は、主に文の手動アノテーションに依存し、次に教師付き機械学習モデルをトレーニングする。
しかし、この手動アノテーションプロセスは、文中のスタンスを完全に理解するモデルの能力に制限を課し、異なる文脈にまたがる一般化の可能性を妨げる。
本研究では,大規模言語モデル (LLM) を用いた位置分類の課題について,人間ラベルの絶対最小使用量を用いて検討する。
4種類のプロンプトスキームをllmと組み合わせて検討し,手作業によるスタンス判定と比較した。
我々の研究によると、LLMは各データセットのベンチマーク結果にマッチしたり、時には超えることもあるが、その全体的な精度は教師付きモデルが生成できるものよりも明らかに優れているわけではない。
これはLCMの姿勢分類の改善の可能性を示している。
しかしLLMの応用は、教師なし姿勢検出のための有望な道を開くことで、手動の収集やスタンスアノテーションの必要性を緩和する。
これはプロセスを合理化するだけでなく、言語にまたがるスタンス検出機能を拡張する方法でもある。
本稿では,llmのスタンス分類能力について概説し,この領域における今後の進歩を導く貴重な知見を提供する。
関連論文リスト
- What do Large Language Models Need for Machine Translation Evaluation? [12.42394213466485]
大規模言語モデル(LLM)は、微調整された多言語事前訓練言語モデルに匹敵する結果が得られる。
本稿では,LLMの機械翻訳品質を評価するために,ソース,参照,翻訳エラー,ガイドラインなどの翻訳情報が必要であるかを検討する。
論文 参考訳(メタデータ) (2024-10-04T09:50:45Z) - EmbedLLM: Learning Compact Representations of Large Language Models [28.49433308281983]
大規模言語モデルのコンパクトなベクトル表現を学習するためのフレームワークである EmbedLLM を提案する。
このような埋め込みを学習するためのエンコーダ-デコーダアプローチと,その有効性を評価するための体系的なフレームワークを導入する。
EmbedLLMはモデルルーティングにおいて,精度とレイテンシの両方において,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-03T05:43:24Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Show, Don't Tell: Aligning Language Models with Demonstrated Feedback [54.10302745921713]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Scaling Sentence Embeddings with Large Language Models [43.19994568210206]
本研究では,文埋め込み性能の向上を目的としたテキスト内学習手法を提案する。
提案手法では,従来のプロンプトに基づく表現手法を自己回帰モデルに適用する。
モデルサイズをスケールすることで、数千億以上のパラメータへのスケーリングが意味的なテキスト類似性タスクのパフォーマンスを損なうことが分かる。
論文 参考訳(メタデータ) (2023-07-31T13:26:03Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Self-Checker: Plug-and-Play Modules for Fact-Checking with Large Language Models [75.75038268227554]
Self-Checkerはファクトチェックを容易にするプラグインとプレイモジュールからなるフレームワークである。
このフレームワークは、低リソース環境でファクトチェックシステムを構築するための、高速で効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-24T01:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。