論文の概要: CICLe: Conformal In-Context Learning for Largescale Multi-Class Food Risk Classification
- arxiv url: http://arxiv.org/abs/2403.11904v3
- Date: Thu, 30 May 2024 08:37:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 20:44:52.573686
- Title: CICLe: Conformal In-Context Learning for Largescale Multi-Class Food Risk Classification
- Title(参考訳): CICLe: 大規模多型食品リスク分類のためのコンフォーマル・インコンテクスト学習
- Authors: Korbinian Randl, John Pavlopoulos, Aron Henriksson, Tony Lindgren,
- Abstract要約: トレーニング用のラベル付きWebテキストセットが与えられたら、機械学習と自然言語処理を適用して、そのようなリスクを自動的に検出することができる。
我々は,公開食品リコール発表を記述した7,546の短いテキストのデータセットを公開している。
データセットとベンチマークナイーブ、従来型、トランスフォーマーモデルについて説明する。
- 参考スコア(独自算出の注目度): 2.8894038270224867
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Contaminated or adulterated food poses a substantial risk to human health. Given sets of labeled web texts for training, Machine Learning and Natural Language Processing can be applied to automatically detect such risks. We publish a dataset of 7,546 short texts describing public food recall announcements. Each text is manually labeled, on two granularity levels (coarse and fine), for food products and hazards that the recall corresponds to. We describe the dataset and benchmark naive, traditional, and Transformer models. Based on our analysis, Logistic Regression based on a tf-idf representation outperforms RoBERTa and XLM-R on classes with low support. Finally, we discuss different prompting strategies and present an LLM-in-the-loop framework, based on Conformal Prediction, which boosts the performance of the base classifier while reducing energy consumption compared to normal prompting.
- Abstract(参考訳): 汚染された食品や成体の食品は、人間の健康に重大なリスクをもたらす。
トレーニング用のラベル付きWebテキストセットが与えられたら、機械学習と自然言語処理を適用して、そのようなリスクを自動的に検出することができる。
我々は,公開食品リコール発表を記述した7,546の短いテキストのデータセットを公開している。
各テキストは、2つの粒度レベル(粗さと微妙さ)で手動でラベル付けされる。
データセットとベンチマークナイーブ、従来型、トランスフォーマーモデルについて説明する。
分析の結果,tf-idf表現に基づくロジスティック回帰は,低サポートのクラスではRoBERTaとXLM-Rより優れていた。
最後に,異なるプロンプト戦略について議論し,コンフォーマル予測に基づくLLM-in-the-loopフレームワークを提案する。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Deep Learning Based Named Entity Recognition Models for Recipes [7.507956305171027]
名前付きエンティティ認識(NER)は、構造化されていない、または半構造化されていないデータから既知のラベルで情報を抽出する技術である。
私たちは26,445のフレーズを累積してデータセットを作成しました。
金本位レシピデータレポジトリRecipeDBの成分句を分析し,Stanford NERを用いて注釈した。
深層学習に基づく言語モデルの統計的、微調整を含むこれらのデータセットに対するNERアプローチの徹底的な調査は、深い洞察を与える。
論文 参考訳(メタデータ) (2024-02-27T12:03:56Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - RAGAS: Automated Evaluation of Retrieval Augmented Generation [25.402461447140823]
RAGAはRetrieval Augmented Generationパイプラインを評価するためのフレームワークである。
RAGシステムは、検索とLLMベースの生成モジュールで構成される。
論文 参考訳(メタデータ) (2023-09-26T19:23:54Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - CRL+: A Novel Semi-Supervised Deep Active Contrastive Representation
Learning-Based Text Classification Model for Insurance Data [0.8399688944263843]
保険業界は、自然言語処理(NLP)による自由テキストのインテリジェント分析技術の適用の恩恵を受けることができる。
本稿では,コントラスト表現学習(CRL)とアクティブラーニングを組み合わせた新しいテキスト分類モデルCRL+を提案する。
提案手法は,データから死亡原因を決定する目的で,非構造化の死亡データを用いて評価する。
論文 参考訳(メタデータ) (2023-02-08T21:23:52Z) - Online Class-Incremental Learning For Real-World Food Image
Classification [8.438092346233054]
文化的、経済的、個人的影響によって形成された実世界の食品消費パターンは、動的かつ進化的なデータを含んでいる。
Online Class Incremental Learning (OCIL)は、シングルパスのデータストリームから継続的に学習するという課題に対処する。
本稿では,既存のER法用に設計された動的モデル更新モジュールについて述べる。
論文 参考訳(メタデータ) (2023-01-12T19:00:27Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Exploring Fluent Query Reformulations with Text-to-Text Transformers and
Reinforcement Learning [11.205077315939644]
テキストからテキストへの変換器を用いた改質器の訓練により、クエリの改質を生成する方法を検討する。
ポリシーベースの強化学習アルゴリズムを適用し、報酬学習をさらに促進します。
当社のフレームワークはフレキシブルで,異なる下流環境から報奨信号の発信を可能にする。
論文 参考訳(メタデータ) (2020-12-18T03:16:37Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。