論文の概要: Complementary Learning Approach for Text Classification using Large Language Models
- arxiv url: http://arxiv.org/abs/2512.07583v1
- Date: Mon, 08 Dec 2025 14:26:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.920436
- Title: Complementary Learning Approach for Text Classification using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたテキスト分類のための補完学習手法
- Authors: Navid Asgari, Benjamin M. Cole,
- Abstract要約: 本稿では,大規模言語モデル (LLM) をコスト効率と相似性で活用する構造化手法を提案する。
我々の方法論は、コンピュータ科学から導かれる一連の思考と数発の学習を通じて促進され、質的研究の共著者チームにとってのベストプラクティスを定量的研究の人間-機械チームへと拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this study, we propose a structured methodology that utilizes large language models (LLMs) in a cost-efficient and parsimonious manner, integrating the strengths of scholars and machines while offsetting their respective weaknesses. Our methodology, facilitated through a chain of thought and few-shot learning prompting from computer science, extends best practices for co-author teams in qualitative research to human-machine teams in quantitative research. This allows humans to utilize abductive reasoning and natural language to interrogate not just what the machine has done but also what the human has done. Our method highlights how scholars can manage inherent weaknesses OF LLMs using careful, low-cost techniques. We demonstrate how to use the methodology to interrogate human-machine rating discrepancies for a sample of 1,934 press releases announcing pharmaceutical alliances (1990-2017).
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)をコスト効率・同調的に利用し,それぞれの弱点を相殺しながら,学者や機械の強みを統合する構造的手法を提案する。
我々の方法論は、コンピュータ科学から導かれる一連の思考と数発の学習を通じて促進され、質的研究の共著者チームにとってのベストプラクティスを定量的研究の人間-機械チームへと拡張する。
これにより、人間は帰納的推論と自然言語を使って、マシンが何をしたのかだけでなく、人間が何をしたのかを問うことができる。
本手法は, 注意深い低コスト手法を用いて, LLMの弱点を研究者がいかに管理できるかを強調した。
我々は,1990-2017年の製薬提携を発表した1,934件のプレスリリースのサンプルに対して,この手法を用いて人間と機械の格付けの相違を問う方法を示した。
関連論文リスト
- Automated Novelty Evaluation of Academic Paper: A Collaborative Approach Integrating Human and Large Language Model Knowledge [9.208744138848765]
学術論文における最も一般的なノベルティの1つは、新しい方法の導入である。
本稿では,論文の手法の新規性を予測するための事前学習言語モデル(PLM)を支援するために,人間の知識とLLMを活用することを提案する。
論文 参考訳(メタデータ) (2025-07-15T14:03:55Z) - Controlling Difficulty of Generated Text for AI-Assisted Language Learning [37.329743597873104]
大規模言語モデル(LLM)は、ほぼネイティブに近いレベルの複雑さでテキストを生成するため、初心者の学習者には不適当である。
制御可能な生成技術がLLM出力に適応して絶対初心者を支援することができるかどうかを検討する。
以上の結果から,プロンプトだけでは出力の難易度を制御できないが,将来的な識別器の使用は出力の理解性を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-06-04T15:38:21Z) - Investigating Persuasion Techniques in Arabic: An Empirical Study Leveraging Large Language Models [0.13980986259786224]
本稿では、アラビアのソーシャルメディアコンテンツにおける説得的手法の同定に焦点をあてた総合的な実証的研究について述べる。
我々は、プレトレーニング言語モデル(PLM)を利用し、ArAlEvalデータセットを活用する。
本研究では,PLMの力を活用した3つの学習手法について検討した。
論文 参考訳(メタデータ) (2024-05-21T15:55:09Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Towards More Human-like AI Communication: A Review of Emergent
Communication Research [0.0]
創発的コミュニケーション(英: Emergent Communication, Emecom)は、自然言語を利用できる人工エージェントの開発を目的とした研究分野である。
本稿では,文献の共通点と,それらが人間同士の相互作用にどのように関係しているかを概説する。
2つのサブカテゴリを特定し、その特性とオープンな課題を強調します。
論文 参考訳(メタデータ) (2023-08-01T14:43:10Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Evaluating Language Models for Mathematics through Interactions [116.67206980096513]
大型言語モデル(LLM)と対話し,評価するためのプロトタイププラットフォームであるCheckMateを紹介した。
我々はCheckMateと共同で3つの言語モデル(InstructGPT, ChatGPT, GPT-4)を、学部レベルの数学の証明支援として評価する研究を行った。
我々は、人間の行動の分類を導き、概して肯定的な相関にもかかわらず、正しさと知覚的有用性の間に顕著な相違点があることを明らかにする。
論文 参考訳(メタデータ) (2023-06-02T17:12:25Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。