論文の概要: Rudolf Christoph Eucken at SemEval-2023 Task 4: An Ensemble Approach for
Identifying Human Values from Arguments
- arxiv url: http://arxiv.org/abs/2305.05335v1
- Date: Tue, 9 May 2023 10:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:08:21.931033
- Title: Rudolf Christoph Eucken at SemEval-2023 Task 4: An Ensemble Approach for
Identifying Human Values from Arguments
- Title(参考訳): Rudolf Christoph Eucken - SemEval-2023 Task 4: An Ensemble Approach for Identification Human Values from Arguments (英語)
- Authors: Sougata Saha, Rohini Srihari
- Abstract要約: 議論テキストから人間の値を検出するためのアンサンブル手法を提案する。
我々のアンサンブルは3つのモデルから構成される: (i) 説明に基づいて人間の値を決定するエンテーメントベースモデル、 (ii) 議論から人間の値の集合を予測するロバータベースの分類器。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The subtle human values we acquire through life experiences govern our
thoughts and gets reflected in our speech. It plays an integral part in
capturing the essence of our individuality and making it imperative to identify
such values in computational systems that mimic human actions. Computational
argumentation is a field that deals with the argumentation capabilities of
humans and can benefit from identifying such values. Motivated by that, we
present an ensemble approach for detecting human values from argument text. Our
ensemble comprises three models: (i) An entailment-based model for determining
the human values based on their descriptions, (ii) A Roberta-based classifier
that predicts the set of human values from an argument. (iii) A Roberta-based
classifier to predict a reduced set of human values from an argument. We
experiment with different ways of combining the models and report our results.
Furthermore, our best combination achieves an overall F1 score of 0.48 on the
main test set.
- Abstract(参考訳): 人生経験を通じて得られる微妙な人間の価値観は、私たちの思考を支配し、私たちのスピーチに反映されます。
それは我々の個性の本質を捉え、人間の行動を模倣する計算システムにおいてそのような価値を識別することが不可欠である。
計算的議論(computational argumentation)は、人間の議論能力を扱う分野であり、そのような値を特定することの恩恵を受ける。
そこで我々は,議論テキストから人間の値を検出するアンサンブルアプローチを提案する。
私たちのアンサンブルは3つのモデルで構成されています
(i)記述に基づく人間価値決定のための補足モデル
(ii)引数から人間の値の集合を予測するRobertaベースの分類器。
(iii)議論から人間の値の少ない集合を予測するロベルタに基づく分類器。
モデルを組み合わせてさまざまな方法で実験し、結果を報告します。
さらに、我々の最良の組み合わせは、メインテストセットで全体のF1スコア0.48を達成する。
関連論文リスト
- Learning Human-like Representations to Enable Learning Human Values [11.236150405125754]
我々は,人間とAIエージェントの表現的アライメントが人的価値の学習に与える影響を考察する。
このような表現的アライメントは、パーソナライゼーションの文脈において、人間の価値を安全に学習し、探索する上で有効であることを示す。
論文 参考訳(メタデータ) (2023-12-21T18:31:33Z) - It HAS to be Subjective: Human Annotator Simulation via Zero-shot
Density Estimation [15.8765167340819]
人間アノテーションシミュレーション(Human Annotator Simulation, HAS)は、データアノテーションやシステムアセスメントなどの人的評価の代用として費用対効果がある。
人間の評価中の人間の知覚と行動は、多様な認知過程と主観的解釈による固有の多様性を示す。
本稿では,HASをゼロショット密度推定問題として扱うメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T20:54:59Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Epicurus at SemEval-2023 Task 4: Improving Prediction of Human Values
behind Arguments by Leveraging Their Definitions [5.343406649012618]
本稿では,SemEval-2023 Task 4における議論の背景にある人間の価値の同定実験について述べる。
人間の価値は、正確な定義を必要とする主観的な概念であるため、モデルトレーニング中に人間の価値の定義を取り入れることで、より良い予測性能が得られるという仮説を立てる。
論文 参考訳(メタデータ) (2023-02-27T16:23:11Z) - Revisiting the Gold Standard: Grounding Summarization Evaluation with
Robust Human Evaluation [136.16507050034755]
要約のための既存の人間の評価研究は、アノテータ間の合意が低かったり、スケールが不十分だったりしている。
細粒度セマンティック・ユニットをベースとした改良された要約サリエンス・プロトコルであるAtomic Content Units (ACUs)を提案する。
ロバスト・サムライゼーション・アセスメント(RoSE)ベンチマークは,28の上位性能システム上で22,000の要約レベルのアノテーションからなる大規模な人的評価データセットである。
論文 参考訳(メタデータ) (2022-12-15T17:26:05Z) - Enabling Classifiers to Make Judgements Explicitly Aligned with Human
Values [73.82043713141142]
性差別/人種差別の検出や毒性検出などの多くのNLP分類タスクは、人間の値に基づいている。
本稿では,コマンド内で明示的に記述された人間の値に基づいて予測を行う,値整合型分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T09:10:49Z) - Training Language Models with Natural Language Feedback [51.36137482891037]
3段階学習アルゴリズムを用いてモデル出力の言語フィードバックから学習する。
合成実験において、まず言語モデルがフィードバックを正確に組み込んで改良を行うかどうかを評価する。
人間の手書きフィードバックのサンプルは100程度しかなく, 学習アルゴリズムはGPT-3モデルを微調整し, ほぼ人間レベルの要約を行う。
論文 参考訳(メタデータ) (2022-04-29T15:06:58Z) - Dynamic Human Evaluation for Relative Model Comparisons [8.843915018287476]
本研究では,相対的な比較設定で生成した出力を評価する際に,人間のアノテーションの必要個数を動的に測定する手法を提案する。
シミュレーションとクラウドソーシングのケーススタディにおいて,より優れたモデルを決定するための複数のラベル付け戦略と手法を評価するために,人間評価のエージェントベースフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-15T11:32:13Z) - Hierarchical Human Parsing with Typed Part-Relation Reasoning [179.64978033077222]
このタスクでは、人体構造をモデル化する方法が中心的なテーマである。
深層グラフネットワークの表現能力と階層的人間構造を同時に活用することを模索する。
論文 参考訳(メタデータ) (2020-03-10T16:45:41Z) - Learning Compositional Neural Information Fusion for Human Parsing [181.48380078517525]
我々はこのアプローチを神経情報融合フレームワークとして定式化する。
我々のモデルは階層上の3つの推論プロセスから情報を収集する。
モデル全体がエンドツーエンドで識別可能であり、情報フローと構造を明示的にモデル化する。
論文 参考訳(メタデータ) (2020-01-19T10:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。