論文の概要: LinguistAgent: A Reflective Multi-Model Platform for Automated Linguistic Annotation
- arxiv url: http://arxiv.org/abs/2602.05493v1
- Date: Thu, 05 Feb 2026 09:55:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.870834
- Title: LinguistAgent: A Reflective Multi-Model Platform for Automated Linguistic Annotation
- Title(参考訳): LinguistAgent: 自動言語アノテーションのための反射型多モデルプラットフォーム
- Authors: Bingru Li,
- Abstract要約: 本稿では,言語アノテーションを自動化するために,反射型多モデルアーキテクチャを活用する統合プラットフォームLinguistAgentを紹介する。
このシステムは、プロのピアレビュープロセスをシミュレートするために、アノテーションとレビュアーからなるデュアルエージェントワークフローを実装している。
メタファ識別のタスクを例にLinguistAgentの有効性を実証し,トークンレベルをリアルタイムに評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data annotation remains a significant bottleneck in the Humanities and Social Sciences, particularly for complex semantic tasks such as metaphor identification. While Large Language Models (LLMs) show promise, a significant gap remains between the theoretical capability of LLMs and their practical utility for researchers. This paper introduces LinguistAgent, an integrated, user-friendly platform that leverages a reflective multi-model architecture to automate linguistic annotation. The system implements a dual-agent workflow, comprising an Annotator and a Reviewer, to simulate a professional peer-review process. LinguistAgent supports comparative experiments across three paradigms: Prompt Engineering (Zero/Few-shot), Retrieval-Augmented Generation, and Fine-tuning. We demonstrate LinguistAgent's efficacy using the task of metaphor identification as an example, providing real-time token-level evaluation (Precision, Recall, and $F_1$ score) against human gold standards. The application and codes are released on https://github.com/Bingru-Li/LinguistAgent.
- Abstract(参考訳): データアノテーションは、人文科学や社会科学において重要なボトルネックであり、特に比喩的識別のような複雑な意味的タスクにおいて重要である。
LLM(Large Language Models)は将来性を示すが、LLMの理論的能力と研究者にとっての実用性の間には大きなギャップが残っている。
本稿では,言語アノテーションの自動化に,反射型多モデルアーキテクチャを活用したユーザフレンドリな統合プラットフォームLinguistAgentを紹介する。
このシステムは、プロのピアレビュープロセスをシミュレートするために、アノテーションとレビュアーで構成されるデュアルエージェントワークフローを実装している。
LinguistAgentは、Prompt Engineering (Zero/Few-shot), Retrieval-Augmented Generation, Fine-tuningの3つのパラダイムで比較実験をサポートしている。
我々はLinguistAgentのメタファー識別のタスクを例に示し、リアルタイムトークンレベル評価(Precision, Recall, $F_1$ score)を人間のゴールド標準に対して提供する。
アプリケーションとコードはhttps://github.com/Bingru-Li/LinguistAgent.comで公開されている。
関連論文リスト
- AgentArk: Distilling Multi-Agent Intelligence into a Single LLM Agent [57.10083973844841]
AgentArkは、マルチエージェントダイナミクスを単一のモデルの重みに蒸留する新しいフレームワークである。
各種モデル,タスク,スケーリング,シナリオの3つの階層的蒸留戦略について検討する。
シミュレーションからトレーニングへ計算の負担をシフトさせることで、蒸留されたモデルは、複数のエージェントの強い推論と自己補正性能を示しながら、一つのエージェントの効率を保ちます。
論文 参考訳(メタデータ) (2026-02-03T19:18:28Z) - Evaluating Large Language Models as Expert Annotators [17.06186816803593]
本稿では,トップパフォーマンス言語モデルが,人間の専門家アノテータの直接的な代替として機能するかどうかを考察する。
我々は、金融、バイオメディシン、法という3つの専門分野にまたがる個別のLCMとマルチエージェントのアプローチを評価した。
実験結果から,推定時間的手法を具備した個々のLSMは,限界あるいは負の利得しか示さないことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-11T10:19:10Z) - Scaffolded Language Models with Language Supervision for Mixed-Autonomy: A Survey [52.00674453604779]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - An Empirical Evaluation of Pre-trained Large Language Models for Repairing Declarative Formal Specifications [7.286515881369693]
本稿では,大規模言語モデル(LLM)がアロイの宣言的仕様を修復する能力について,体系的に検討する。
単エージェントと二エージェントのパラダイムを含む12の異なる修復設定を設計し,LLMを多用した。
自動プロンプティング機能を備えたデュアルエージェントは,イテレーション数やトークン使用量の増加とともに,他の設定よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T03:46:38Z) - Retroformer: Retrospective Large Language Agents with Policy Gradient Optimization [103.70896967077294]
本稿では,レトロスペクティブモデルを学習することで,大規模言語エージェントを強化するための原則的枠組みを提案する。
提案するエージェントアーキテクチャは,事前学習した言語モデルを微調整するために,複数の環境やタスクにまたがる報酬から学習する。
様々なタスクの実験結果から、言語エージェントは時間とともに改善することが示された。
論文 参考訳(メタデータ) (2023-08-04T06:14:23Z) - A Hierarchical Model for Spoken Language Recognition [29.948719321162883]
音声言語認識(SLR)とは、音声サンプルに含まれる言語を決定するための自動処理である。
本稿では,2つのPLDAモデルを訓練し,その1つは高関係言語クラスタのスコアを生成し,もう1つは各クラスタに条件付きスコアを生成するという新しい階層的アプローチを提案する。
この階層的アプローチは、高度に関連性の高い言語を検出する非階層的アプローチよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-04T22:10:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。