論文の概要: ControversialQA: Exploring Controversy in Question Answering
- arxiv url: http://arxiv.org/abs/2302.05061v1
- Date: Fri, 10 Feb 2023 05:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:28:40.404401
- Title: ControversialQA: Exploring Controversy in Question Answering
- Title(参考訳): Controversial QA: 質問回答における論争を探る
- Authors: Zhen Wang, Peide Zhu, Jie Yang
- Abstract要約: 本稿では,ユーザ認識によるコンテンツ論争を規定する質問応答データセットについて紹介する。
質問には10万近い質問が含まれており、各質問には最高の回答と最も議論を呼んだ回答がある。
- 参考スコア(独自算出の注目度): 9.363349244878277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controversy is widespread online. Previous studies mainly define controversy
based on vague assumptions of its relation to sentiment such as hate speech and
offensive words. This paper introduces the first question-answering dataset
that defines content controversy by user perception, i.e., votes from plenty of
users. It contains nearly 10K questions, and each question has a best answer
and a most controversial answer. Experimental results reveal that controversy
detection in question answering is essential and challenging, and there is no
strong correlation between controversy and sentiment tasks.
- Abstract(参考訳): 議論はオンラインで広まっている。
先行研究は主に、ヘイトスピーチや不快な言葉のような感情との関係の曖昧な仮定に基づいて議論を定義する。
本稿では,ユーザ認識によるコンテンツ論争,すなわち多くのユーザからの投票を定義する最初の質問回答データセットを紹介する。
質問には1万近い質問が含まれており、各質問にはベスト回答と最も議論の多い回答がある。
実験の結果,質問応答における議論検出は必須かつ困難であり,議論と感情課題の間には強い相関関係が認められなかった。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - DELPHI: Data for Evaluating LLMs' Performance in Handling Controversial
Issues [3.497021928281132]
論争は私たちの世俗主義の反映であり、あらゆる論点にとって重要な側面である。
対話型システムとしての大規模言語モデル(LLM)の台頭は、これらのシステムに対する様々な質問に対する回答に対する大衆の信頼を高めている。
本稿では,Quora Question Pairsデータセットを拡張した,議論の的となっている質問データセットの新規構築を提案する。
論文 参考訳(メタデータ) (2023-10-27T13:23:02Z) - AI in the Gray: Exploring Moderation Policies in Dialogic Large Language
Models vs. Human Answers in Controversial Topics [7.444967232238375]
宗教」や「性同一性」、「言論の自由」や「平等」といった論争的な話題は対立の源となっている。
このような不当な質問にChatGPTを露出させることで、その認識レベルを理解し、既存のモデルが社会・政治・経済のバイアスにさらされているかどうかを理解することを目指している。
論文 参考訳(メタデータ) (2023-08-28T14:23:04Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Selectively Answering Ambiguous Questions [38.83930394700588]
我々は, サンプルモデル出力における繰り返しの定量化が, 退避時期を決定する最も信頼性の高い手法であることが判明した。
その結果,サンプリングに基づく信頼度スコアは,比較的あいまいな質問に対する回答のキャリブレーションに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T01:25:38Z) - Anger Breeds Controversy: Analyzing Controversy and Emotions on Reddit [25.395778771676024]
我々は、オンラインディスカッションフォーラムの人気のあるネットワークであるRedditで論争を調査する。
私たちは感情検出を使用して、怒り、恐怖、喜び、賞賛など、テキストからさまざまな感情を認識する。
論文 参考訳(メタデータ) (2022-12-01T07:57:54Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - SubjQA: A Dataset for Subjectivity and Review Comprehension [52.13338191442912]
主観性と質問応答(QA)の関係について検討する。
主観性は、主観性とQAパフォーマンスのより複雑な相互作用があるにもかかわらず、QAの場合においても重要な特徴であることがわかった。
顧客レビューに基づいた英語のQAデータセット(SubjQA)をリリースし、6つの異なるドメインにまたがる質問や回答に対する主観的アノテーションを含む。
論文 参考訳(メタデータ) (2020-04-29T15:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。