論文の概要: Active Learning for Argument Strength Estimation
- arxiv url: http://arxiv.org/abs/2109.11319v1
- Date: Thu, 23 Sep 2021 12:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 19:30:45.211783
- Title: Active Learning for Argument Strength Estimation
- Title(参考訳): 引数強度推定のためのアクティブラーニング
- Authors: Nataliia Kees and Michael Fromm and Evgeniy Faerman and Thomas Seidl
- Abstract要約: 不確実性に基づく能動学習法は2つの一般的な議論強度データセットで検証される。
評価の結果,不確実性に基づく取得関数は,これらのデータセットのランダムな取得に到達した精度を上回り得ないことが示唆された。
- 参考スコア(独自算出の注目度): 1.6287500717172143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-quality arguments are an essential part of decision-making.
Automatically predicting the quality of an argument is a complex task that
recently got much attention in argument mining. However, the annotation effort
for this task is exceptionally high. Therefore, we test uncertainty-based
active learning (AL) methods on two popular argument-strength data sets to
estimate whether sample-efficient learning can be enabled. Our extensive
empirical evaluation shows that uncertainty-based acquisition functions can not
surpass the accuracy reached with the random acquisition on these data sets.
- Abstract(参考訳): 高品質な議論は意思決定の重要な部分です。
議論の品質を自動的に予測することは、最近議論のマイニングで注目を集めた複雑なタスクである。
しかし,この課題に対するアノテーションの取り組みは極めて高い。
そこで我々は2つの一般的な議論強度データセット上で不確実性に基づくアクティブラーニング(AL)手法を検証し,サンプル効率のよい学習が可能かどうかを推定する。
我々は,不確実性に基づく取得関数が,これらのデータセットのランダムな取得に到達した精度を超えないことを示す。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - Pixel is All You Need: Adversarial Trajectory-Ensemble Active Learning
for Salient Object Detection [40.97103355628434]
弱教師付きデータで訓練されたサリエンシモデルがその完全教師付きバージョンの同等のパフォーマンスを達成できるかどうかは不明である。
我々は,新しい対向軌道アンサンブルアクティブラーニング(ATAL)を提案する。
実験の結果、私たちのALTはそのようなポイントラベル付きデータセットを見つけることができ、トレーニングされたサリエンシモデルは、イメージ毎に10の注釈付きポイントしか持たないフル教師付きバージョンの97%$ --99%のパフォーマンスを得ることができた。
論文 参考訳(メタデータ) (2022-12-13T11:18:08Z) - Using Sum-Product Networks to Assess Uncertainty in Deep Active Learning [3.7507283158673212]
本稿では,畳み込みニューラルネットワーク(CNN)を用いた深層能動学習における不確かさの計算方法を提案する。
CNN が抽出した特徴表現を Sum-Product Network (SPN) のトレーニングデータとして利用する。
論文 参考訳(メタデータ) (2022-06-20T14:28:19Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Towards Few-Shot Fact-Checking via Perplexity [40.11397284006867]
そこで本研究では,言語モデルの強力な伝達学習能力をパープレキシティスコアで活用する新しい手法を提案する。
私たちの方法論は、F1-Macroメトリックの絶対10%以上のメジャークラスベースラインをすでに上回ることができます。
COVID-19に関連する2つの新しいファクトチェックデータセットを構築し、公開します。
論文 参考訳(メタデータ) (2021-03-17T09:43:19Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Towards an Intrinsic Definition of Robustness for a Classifier [4.205692673448206]
検証セットにおける試料のロバスト性半径の平均化は統計的に弱い尺度であることを示す。
その代わりに, 試料の難易度に応じて, 試料の重要性を重み付けすることを提案する。
提案したスコアが,サンプルの選択にほとんど依存せず,分類器のロバスト性を測定することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-09T07:47:21Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。