論文の概要: Quantification of Biodiversity from Historical Survey Text with LLM-based Best-Worst Scaling
- arxiv url: http://arxiv.org/abs/2502.04022v1
- Date: Thu, 06 Feb 2025 12:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:33:03.998929
- Title: Quantification of Biodiversity from Historical Survey Text with LLM-based Best-Worst Scaling
- Title(参考訳): LLMに基づくベストワーストスケーリングによる歴史調査テキストからの生物多様性の定量化
- Authors: Thomas Haider, Tobias Perschl, Malte Rehbein,
- Abstract要約: 本研究は, 過去の調査文献から, 数量推定による種頻度の判定方法を評価する。
本稿では,BWS(Best-Worst Scaling)とLLM(Large Language Models)を用いて,この問題を回帰タスクとして適切にフレーム化可能であることを示す。
このアプローチは、よりきめ細かいマルチクラスアプローチに比べてコスト効率が高く、同様に堅牢である、と結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this study, we evaluate methods to determine the frequency of species via quantity estimation from historical survey text. To that end, we formulate classification tasks and finally show that this problem can be adequately framed as a regression task using Best-Worst Scaling (BWS) with Large Language Models (LLMs). We test Ministral-8B, DeepSeek-V3, and GPT-4, finding that the latter two have reasonable agreement with humans and each other. We conclude that this approach is more cost-effective and similarly robust compared to a fine-grained multi-class approach, allowing automated quantity estimation across species.
- Abstract(参考訳): 本研究では,過去の調査文献から数量推定を行い,種数を決定する方法を評価する。
そこで我々は,分類タスクを定式化し,BWS(Best-Worst Scaling)とLLM(Large Language Models)を併用した回帰タスクとして,この問題が適切にフレーム化可能であることを示す。
我々はMinistral-8B、DeepSeek-V3、GPT-4を試験し、後者の2つが互いに合理的に一致していることを発見した。
提案手法は, 種々別自動量推定が可能であり, より細粒度な多クラスアプローチに比べ, コスト効率が高く, 同様に頑健である。
関連論文リスト
- Analysis of High-dimensional Gaussian Labeled-unlabeled Mixture Model via Message-passing Algorithm [3.192109204993465]
半教師付き学習(SSL)は、ラベル付きデータを限られた量のラベル付きデータとともに活用する機械学習手法である。
いくつかの既存の理論的研究は、いわゆるガウス混合モデル(GMM)を用いて分類問題をモデル化することでこの問題に対処しようとしている。
本稿では,SSL設定における二項分類のための高次元GMMの特性を詳細に解析する。
論文 参考訳(メタデータ) (2024-11-29T08:57:07Z) - Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号ステップにおける多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法のキャパシティを推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法を総合的に比較し,パラメータ選択のための実用的なユーザガイドとして機能する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Deep Bayesian Active Learning for Preference Modeling in Large Language Models [84.817400962262]
本稿では,BAL-PM(Bayesian Active Learner for Preference Modeling)を提案する。
BAL-PMは2つの人気のある人間の嗜好データセットにおいて、好みラベルを33%から68%少なくし、以前のベイズ買収ポリシーを超えている。
我々の実験では、BAL-PMは2つの人気のある人選好データセットにおいて33%から68%の選好ラベルを必要としており、ベイズ買収ポリシーを上回ります。
論文 参考訳(メタデータ) (2024-06-14T13:32:43Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Density Ratio Estimation-based Bayesian Optimization with Semi-Supervised Learning [5.346298077607419]
この課題を解決するために,半教師付き学習を用いた密度比推定に基づくベイズ最適化を提案する。
本手法の実証的な結果といくつかの基本手法を,未ラベルの点サンプリングと固定サイズのプールを持つ2つの異なるシナリオで示す。
論文 参考訳(メタデータ) (2023-05-24T23:01:56Z) - On tuning a mean-field model for semi-supervised classification [0.0]
ラベル付きデータとラベルなしデータの両方が利用可能なシナリオでの学習能力のため、半教師付き学習(SSL)は興味深い研究領域になっている。
分類結果が$beta$に依存するかを調べ、最適位相が利用可能なラベル付きデータの量に大きく依存していることを確認する。
論文 参考訳(メタデータ) (2022-04-28T14:11:55Z) - Optimal Off-Policy Evaluation from Multiple Logging Policies [77.62012545592233]
我々は,複数のロギングポリシからオフ政治評価を行い,それぞれが一定のサイズ,すなわち階層化サンプリングのデータセットを生成する。
複数ロガーのOPE推定器は,任意のインスタンス,すなわち効率のよいインスタンスに対して最小分散である。
論文 参考訳(メタデータ) (2020-10-21T13:43:48Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z) - A Novel Random Forest Dissimilarity Measure for Multi-View Learning [8.185807285320553]
高次元低サンプルサイズ (HDLSS) の多視点分類問題に適応するために, ランダムフォレスト近接測度を変更する2つの手法を提案する。
第2の方法は、インスタンスの硬度測定に基づいており、他の最先端の測定よりもかなり正確である。
論文 参考訳(メタデータ) (2020-07-06T07:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。