論文の概要: Human-machine cooperation for semantic feature listing
- arxiv url: http://arxiv.org/abs/2304.05012v1
- Date: Tue, 11 Apr 2023 06:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 15:58:27.112916
- Title: Human-machine cooperation for semantic feature listing
- Title(参考訳): 意味的特徴提示のためのヒューマンマシン協調
- Authors: Kushin Mukherjee and Siddharth Suresh and Timothy T. Rogers
- Abstract要約: 大きな言語モデル(LLM)は、そのような機能リストの自動生成のための新しい道を提供する。
本稿では,LLM生成データと限られたデータから学習した人間語彙のモデルを組み合わせて,高品質な特徴ノルムを効率的に生成する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic feature norms, lists of features that concepts do and do not
possess, have played a central role in characterizing human conceptual
knowledge, but require extensive human labor. Large language models (LLMs)
offer a novel avenue for the automatic generation of such feature lists, but
are prone to significant error. Here, we present a new method for combining a
learned model of human lexical-semantics from limited data with LLM-generated
data to efficiently generate high-quality feature norms.
- Abstract(参考訳): 意味的特徴規範(semantic feature norms)は、概念が持っていない特徴の一覧であり、人間の概念的知識を特徴付ける中心的な役割を担っているが、広範な人間の労働を必要とする。
大規模言語モデル(LLM)は、そのような特徴リストの自動生成のための新しい道を提供するが、重大なエラーを起こす傾向がある。
本稿では,LLM生成データと限られたデータから学習した人間語彙のモデルを組み合わせて,高品質な特徴ノルムを効率的に生成する方法を提案する。
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - VANER: Leveraging Large Language Model for Versatile and Adaptive Biomedical Named Entity Recognition [3.4923338594757674]
大型言語モデル(LLM)は、様々な種類のエンティティを抽出できるモデルを訓練するために使用することができる。
本稿では,オープンソースのLLM LLaMA2をバックボーンモデルとして利用し,異なるタイプのエンティティとデータセットを区別するための具体的な命令を設計する。
我々のモデルVANERは、パラメータの小さな分割で訓練され、従来のLLMモデルよりも大幅に優れており、LLMをベースとしたモデルとして初めて、従来の最先端のBioNERシステムの大部分を上回りました。
論文 参考訳(メタデータ) (2024-04-27T09:00:39Z) - High-Dimension Human Value Representation in Large Language Models [60.33033114185092]
大規模言語モデル(LLM)における人的価値分布の高次元表現であるUniVaRを提案する。
我々は,UniVaRが,異なるLLMに埋め込まれた人間の値と異なる言語源との分布を比較する強力なツールであることを示す。
論文 参考訳(メタデータ) (2024-04-11T16:39:00Z) - Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Instructed Language Models with Retrievers Are Powerful Entity Linkers [87.16283281290053]
Instructed Generative Entity Linker (INSGENEL)は、カジュアル言語モデルが知識ベース上でエンティティリンクを実行することを可能にする最初のアプローチである。
INSGENEL は、+6.8 F1 点が平均的に上昇する以前の生成的代替よりも優れていた。
論文 参考訳(メタデータ) (2023-11-06T16:38:51Z) - CoAnnotating: Uncertainty-Guided Work Allocation between Human and Large
Language Models for Data Annotation [94.59630161324013]
本稿では,非構造化テキストの大規模共同アノテーションのための新しいパラダイムであるCoAnnotatingを提案する。
我々の実証研究は、CoAnnotatingが、異なるデータセット上の結果から作業を割り当てる効果的な手段であることを示し、ランダムベースラインよりも最大21%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-10-24T08:56:49Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Generation-driven Contrastive Self-training for Zero-shot Text Classification with Instruction-following LLM [31.25193238045053]
我々は、より小さな言語モデルの訓練を支援するために、大規模言語モデルの強力な生成力を利用する新しい手法、GenCoを導入する。
本手法では,LLMは2つの重要な方法で,より小さなモデルの自己学習ループにおいて重要な役割を果たす。
予測ラベルに条件付き入力テキストを書き換えることで、高品質なトレーニングペアの開発を支援する。
論文 参考訳(メタデータ) (2023-04-24T07:35:38Z) - CHiLL: Zero-shot Custom Interpretable Feature Extraction from Clinical
Notes with Large Language Models [24.048687797399637]
CHiLLは、専門家が作成したクエリでLLMにプロンプトして、ヘルスレコードから解釈可能な機能を生成する。
結果として生じる雑音ラベルは、単純な線形分類器を訓練するために使用される。
自動抽出された特徴を用いた線形モデルは参照特徴を用いたモデルと互換性があり、"Bag-of-Words"特徴を用いた線形モデルよりも高い解釈性が得られることがわかった。
論文 参考訳(メタデータ) (2023-02-23T21:23:06Z) - Semantic features of object concepts generated with GPT-3 [1.14219428942199]
我々は1,854個のオブジェクトのセマンティックな特徴を生成するためにGPT-3モデルを探索した。
自動生成機能と既存のヒューマン特徴ノルムを比較した。
生成された特徴ノルムは、類似性、関連性、およびカテゴリメンバーシップを予測するために人間のノルムと競合した。
論文 参考訳(メタデータ) (2022-02-08T09:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。