論文の概要: Architectural Sweet Spots for Modeling Human Label Variation by the
Example of Argument Quality: It's Best to Relate Perspectives!
- arxiv url: http://arxiv.org/abs/2311.03153v1
- Date: Mon, 6 Nov 2023 14:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:57:05.738949
- Title: Architectural Sweet Spots for Modeling Human Label Variation by the
Example of Argument Quality: It's Best to Relate Perspectives!
- Title(参考訳): 議論品質の例によるラベル変動のモデル化のための建築上のスイートスポット:視点の関連化が最善!
- Authors: Philipp Heinisch, Matthias Orlikowski, Julia Romberg and Philipp
Cimiano
- Abstract要約: 自然言語処理における個々の視点と共有視点の相互作用を考察する。
本稿では,異なるアノテータ間の関係をモデル化するレイヤを含むアーキテクチャが,単一アノテータラベルの予測にどの程度有用かを検討する。
本研究は,主観的アプローチが個人的視点に結びつくことのメリットを示唆するものである。
- 参考スコア(独自算出の注目度): 4.478789600295492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many annotation tasks in natural language processing are highly subjective in
that there can be different valid and justified perspectives on what is a
proper label for a given example. This also applies to the judgment of argument
quality, where the assignment of a single ground truth is often questionable.
At the same time, there are generally accepted concepts behind argumentation
that form a common ground. To best represent the interplay of individual and
shared perspectives, we consider a continuum of approaches ranging from models
that fully aggregate perspectives into a majority label to "share
nothing"-architectures in which each annotator is considered in isolation from
all other annotators. In between these extremes, inspired by models used in the
field of recommender systems, we investigate the extent to which architectures
that include layers to model the relations between different annotators are
beneficial for predicting single-annotator labels. By means of two tasks of
argument quality classification (argument concreteness and validity/novelty of
conclusions), we show that recommender architectures increase the averaged
annotator-individual F$_1$-scores up to $43\%$ over a majority label model. Our
findings indicate that approaches to subjectivity can benefit from relating
individual perspectives.
- Abstract(参考訳): 自然言語処理における多くのアノテーションタスクは、与えられた例の適切なラベルであるものに関して、有効で正当化された視点が異なる可能性があるという点において、非常に主観的である。
これはまた、一つの根拠の真理の割り当てがしばしば疑問視される議論品質の判断にも当てはまる。
同時に、共通基盤を形成する議論の背後には一般的に受け入れられる概念がある。
個人的視点と共有的視点の相互作用を最もよく表現するために、我々は、視点を完全に集約するモデルから、各注釈子を他の全ての注釈子から分離して考える「共有なし」アーキテクチャまで、様々なアプローチの連続を考える。
これらの極端の間には、レコメンデータシステムの分野で使用されるモデルに触発され、異なるアノテータ間の関係をモデル化するレイヤを含むアーキテクチャが、単一アノテータラベルの予測に有効であるかを調査する。
議論品質分類の2つのタスク(説明具体性と妥当性/結論のノベルティ)によって、レコメンデータアーキテクチャは、平均的な注釈なしのf$_1$-scoresを、多数派ラベルモデルよりも最大$43\%$に増加させることを示した。
本研究は,主観的アプローチが個人的視点に結びつくことのメリットを示唆するものである。
関連論文リスト
- Multi-Perspective Stance Detection [2.8073184910275293]
マルチパースペクティブアプローチは、単一ラベルを使用するベースラインよりも優れた分類性能が得られる。
これは、より包括的な視点を意識したAIモデルを設計することが、責任と倫理的なAIを実装するための重要な第一歩であるだけでなく、従来のアプローチよりも優れた結果を達成することも必要である。
論文 参考訳(メタデータ) (2024-11-13T16:30:41Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Capturing Perspectives of Crowdsourced Annotators in Subjective Learning Tasks [9.110872603799839]
監督された分類は、人間によって注釈付けされたデータセットに大きく依存する。
毒性分類などの主観的なタスクでは、これらのアノテーションはラッカー間での合意が低くなることが多い。
本研究では、主観的分類タスクのためのtextbfAnnotator Awares for Texts (AART) を提案する。
論文 参考訳(メタデータ) (2023-11-16T10:18:32Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Using Natural Language Explanations to Rescale Human Judgments [81.66697572357477]
大規模言語モデル(LLM)を用いて順序付けアノテーションと説明を再スケールする手法を提案する。
我々は、アノテータのLikert評価とそれに対応する説明をLLMに入力し、スコア付けルーリックに固定された数値スコアを生成する。
提案手法は,合意に影響を及ぼさずに生の判断を再スケールし,そのスコアを同一のスコア付けルーリックに接する人間の判断に近づける。
論文 参考訳(メタデータ) (2023-05-24T06:19:14Z) - Open-domain Visual Entity Recognition: Towards Recognizing Millions of
Wikipedia Entities [54.26896306906937]
我々はOVEN-Wikiを提示する。そこでは、テキストクエリに関して、モデルをウィキペディアのエンティティにリンクする必要がある。
私たちは、微調整中に見たことのないWikipediaのエンティティでも、PaLIベースの自動回帰視覚認識モデルが驚くほどうまく機能していることを示します。
PaLIベースのモデルでは全体的なパフォーマンスが向上するが、CLIPベースのモデルはテールエンティティを認識するのに優れている。
論文 参考訳(メタデータ) (2023-02-22T05:31:26Z) - SeedBERT: Recovering Annotator Rating Distributions from an Aggregated
Label [43.23903984174963]
単一ラベルからアノテータ評価分布を復元するSeedBERTを提案する。
人間の評価は,SeedBERTの注意機構がアノテータの不一致の原因と一致していることを示している。
論文 参考訳(メタデータ) (2022-11-23T18:35:15Z) - Dealing with Disagreements: Looking Beyond the Majority Vote in
Subjective Annotations [6.546195629698355]
主観的タスクに対するマルチアノテータモデルの有効性について検討する。
このアプローチは、トレーニング前にラベルをアグリゲートするよりも、同じまたは良いパフォーマンスが得られることを示す。
提案手法は予測の不確かさを推定する手段も提供し,従来の手法よりもアノテーションの不一致との相関が良好であることを示す。
論文 参考訳(メタデータ) (2021-10-12T03:12:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Towards Understanding Sample Variance in Visually Grounded Language
Generation: Evaluations and Observations [67.4375210552593]
視覚的基盤言語生成において,重要だがしばしば無視される問題を理解するために実験を設計する。
人間にはさまざまなユーティリティと視覚的注意があるので、マルチ参照データセットのサンプルのばらつきはモデルの性能にどのように影響しますか?
人為的な参照は、異なるデータセットやタスクで大きく変化する可能性があり、それぞれのタスクの性質が明らかになる。
論文 参考訳(メタデータ) (2020-10-07T20:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。