論文の概要: Classifying Proposals of Decentralized Autonomous Organizations Using
Large Language Models
- arxiv url: http://arxiv.org/abs/2401.07059v1
- Date: Sat, 13 Jan 2024 12:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 19:54:35.908810
- Title: Classifying Proposals of Decentralized Autonomous Organizations Using
Large Language Models
- Title(参考訳): 大規模言語モデルを用いた分散型自治組織の提案分類
- Authors: Christian Ziegler, Marcos Miranda, Guangye Cao, Gustav Arentoft, Doo
Wan Nam
- Abstract要約: この研究は、カテゴリを指定し、それらをさらに洗練し、各イテレーションでプロンプトする反復的アプローチを適用し、その結果、100のプロポーザルのセットを分類する精度は95%になった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Our study demonstrates the effective use of Large Language Models (LLMs) for
automating the classification of complex datasets. We specifically target
proposals of Decentralized Autonomous Organizations (DAOs), as the
classification of this data requires the understanding of context and,
therefore, depends on human expertise, leading to high costs associated with
the task. The study applies an iterative approach to specify categories and
further refine them and the prompt in each iteration, which led to an accuracy
rate of 95% in classifying a set of 100 proposals. With this, we demonstrate
the potential of LLMs to automate data labeling tasks that depend on textual
context effectively.
- Abstract(参考訳): 本研究では,複雑なデータセットの分類を自動化するための大規模言語モデル(llms)の有効性を示す。
このデータの分類にはコンテキストの理解が必要であり、そのため、人間の専門知識に依存するため、タスクに関連するコストが高くなるため、特にDAO(Decentralized Autonomous Organizations)の提案をターゲットとしています。
この研究では、カテゴリを特定し、各イテレーションでそれらとプロンプトをさらに洗練する反復的アプローチを適用することで、100のプロポーザルのセットを分類する精度が95%に向上した。
これにより、テキストコンテキストに依存したデータラベリングタスクを自動化するLLMの可能性を実証する。
関連論文リスト
- How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - BYOC: Personalized Few-Shot Classification with Co-Authored Class
Descriptions [2.076173115539025]
LLMを用いた少数ショットテキスト分類のための新しい手法を提案する。
わずかな例ではなく、LLMは各クラスの健全な特徴を記述して誘導される。
例、質問、回答は、分類プロンプトを形成するために要約される。
論文 参考訳(メタデータ) (2023-10-09T19:37:38Z) - Extreme Multi-Label Skill Extraction Training using Large Language
Models [19.095612333241288]
本稿では,スキル抽出のための精度の高い完全合成ラベル付きデータセットを生成するための費用対効果のアプローチについて述べる。
以上の結果より,textitR-Precision@5では15~25ポイントの連続的な増加が見られた。
論文 参考訳(メタデータ) (2023-07-20T11:29:15Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Casual Conversations v2: Designing a large consent-driven dataset to
measure algorithmic bias and robustness [34.435124846961415]
Metaは、カテゴリの包括的なリストを持つ大規模な同意駆動データセットの収集に取り組んでいる。
本稿では,このようなカテゴリの設計とCasual Conversations v2のサブカテゴリについて述べる。
論文 参考訳(メタデータ) (2022-11-10T19:06:21Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z) - Self-Supervision based Task-Specific Image Collection Summarization [3.115375810642661]
本稿では,意味情報と自己スーパービジョンを用いたタスク固有画像コーパス要約手法を提案する。
特徴生成ネットワークとして,分類に基づくWasserstein generation adversarial Network (WGAN) を用いる。
モデルは、セマンティック埋め込み空間におけるK平均クラスタリングを用いて、推論時に要約を生成する。
論文 参考訳(メタデータ) (2020-12-19T10:58:04Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Summary-Source Proposition-level Alignment: Task, Datasets and
Supervised Baseline [94.0601799665342]
資料の参照要約における文のアライメントは,補助的な要約作業として有用であった。
本稿では,2つの重要な新機能を導入しながら,要約ソースアライメントを明示的なタスクとして確立することを提案する。
我々は提案レベルのアライメントのための新しいトレーニングデータセットを作成し、利用可能な要約評価データから自動的に抽出する。
教師なしアプローチよりも優れたアライメント品質を示す教師付き命題アライメントベースラインモデルを提案する。
論文 参考訳(メタデータ) (2020-09-01T17:27:12Z) - Global Multiclass Classification and Dataset Construction via
Heterogeneous Local Experts [37.27708297562079]
得られたデータセットの信頼性を確保しながら、ラベルの数を最小化する方法を示す。
MNISTとCIFAR-10データセットを用いた実験では、アグリゲーション方式の良好な精度が示されている。
論文 参考訳(メタデータ) (2020-05-21T18:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。