論文の概要: Modelling Stance Detection as Textual Entailment Recognition and
Leveraging Measurement Knowledge from Social Sciences
- arxiv url: http://arxiv.org/abs/2212.06543v1
- Date: Tue, 13 Dec 2022 12:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:23:55.315739
- Title: Modelling Stance Detection as Textual Entailment Recognition and
Leveraging Measurement Knowledge from Social Sciences
- Title(参考訳): 係り受け認識としてのスタンス検出のモデル化と社会科学からの計測知識の活用
- Authors: Qixiang Fang and Anastasia Giachanou and Ayoub Bagheri
- Abstract要約: SDをTERとしてモデル化することは、より多くのトレーニングデータや、より一般的な学習スキームのような利点を提供するかもしれない。
既存のラベル付きSDデータセットが利用できない、難しいが関連するテストケースに適用する。
- 参考スコア(独自算出の注目度): 2.6212127510234797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stance detection (SD) can be considered a special case of textual entailment
recognition (TER), a generic natural language task. Modelling SD as TER may
offer benefits like more training data and a more general learning scheme. In
this paper, we present an initial empirical analysis of this approach. We apply
it to a difficult but relevant test case where no existing labelled SD dataset
is available, because this is where modelling SD as TER may be especially
helpful. We also leverage measurement knowledge from social sciences to improve
model performance. We discuss our findings and suggest future research
directions.
- Abstract(参考訳): スタンス検出(sd)は、汎用自然言語タスクであるter(textual entailment recognition)の特別なケースと見なすことができる。
SDをTERとしてモデル化することは、より多くのトレーニングデータやより一般的な学習スキームのような利点を提供する。
本稿では,このアプローチの初期の経験的分析について述べる。
既存のラベル付きSDデータセットが利用できないような、難しいが関連するテストケースに適用する。
また,社会科学の計測知識を活用し,モデルの性能を向上させる。
今後の研究の方向性について検討する。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Gender Bias Detection in Court Decisions: A Brazilian Case Study [4.948270494088624]
ブラジルポルトガル語の裁判所判決において,ジェンダーバイアスを自動的に検出する実験的な枠組みを提案する。
コートアクティビティの研究・評価のための支援ツールとして提案されていることから,このような技術において重要な特徴を識別する。
論文 参考訳(メタデータ) (2024-06-01T10:34:15Z) - Diverse, but Divisive: LLMs Can Exaggerate Gender Differences in Opinion
Related to Harms of Misinformation [8.066880413153187]
本稿では,多言語モデル(LLM)が誤報の被害を評価する際に,様々なグループの視点を反映できるかどうかを検討する。
TopicMisinfoデータセットには,さまざまなトピックから160件のファクトチェックされたクレームが含まれている。
GPT 3.5-Turboは、経験的に観察された意見の男女差を反映するが、これらの差の程度を増幅する。
論文 参考訳(メタデータ) (2024-01-29T20:50:28Z) - Hi Guys or Hi Folks? Benchmarking Gender-Neutral Machine Translation
with the GeNTE Corpus [15.388894407006852]
機械翻訳(MT)は、しばしば男性やステレオタイプ表現にデフォルトを与える。
本研究は、英語からイタリア語へのジェンダーニュートラル翻訳に重点を置くことで、包括的言語への需要が高まっていることに対処する。
論文 参考訳(メタデータ) (2023-10-08T21:44:00Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - A Spanish dataset for Targeted Sentiment Analysis of political headlines [0.0]
この研究は、2019年のアルゼンチン大統領選挙で主要メディアから公開されたニュースニュースの見出しのドメインに対するターゲティング・センティメント・アナリティクス(Targeted Sentiment Analysis)の課題に対処する。
我々は、2019年の選挙の候補者を対象レベルで言及した1,976人の見出しの極性データセットを提示する。
事前訓練された言語モデルに基づく最先端分類アルゴリズムによる予備実験により,この課題に対象情報が有用であることが示唆された。
論文 参考訳(メタデータ) (2022-08-30T01:30:30Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - MigrationsKB: A Knowledge Base of Public Attitudes towards Migrations
and their Driving Factors [1.6973426830397942]
本研究は、移住に対する大衆の態度を定量化するためのソーシャルメディアプラットフォームの分析である。
移民のホストである欧州諸国では、2013年からJul-2021にかけてのツイートが収集されている。
外部データベースは、移住に対する人々の否定的な態度を引き起こす潜在的な社会的・経済的要因を特定するために使用される。
論文 参考訳(メタデータ) (2021-08-17T12:50:39Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。