論文の概要: Examining Bias in Opinion Summarisation Through the Perspective of
Opinion Diversity
- arxiv url: http://arxiv.org/abs/2306.04424v1
- Date: Wed, 7 Jun 2023 13:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 14:21:19.103871
- Title: Examining Bias in Opinion Summarisation Through the Perspective of
Opinion Diversity
- Title(参考訳): 意見多様性の観点からの意見要約におけるバイアスの検討
- Authors: Nannan Huang, Lin Tian, Haytham Fayek, Xiuzhen Zhang
- Abstract要約: 我々は、意見の多様性の観点から、意見の要約におけるバイアスを研究する。
本研究は, 世論の類似性について検討し, その関連性について考察した。
- 参考スコア(独自算出の注目度): 7.16988671744865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Opinion summarisation is a task that aims to condense the information
presented in the source documents while retaining the core message and
opinions. A summary that only represents the majority opinions will leave the
minority opinions unrepresented in the summary. In this paper, we use the
stance towards a certain target as an opinion. We study bias in opinion
summarisation from the perspective of opinion diversity, which measures whether
the model generated summary can cover a diverse set of opinions. In addition,
we examine opinion similarity, a measure of how closely related two opinions
are in terms of their stance on a given topic, and its relationship with
opinion diversity. Through the lens of stances towards a topic, we examine
opinion diversity and similarity using three debatable topics under COVID-19.
Experimental results on these topics revealed that a higher degree of
similarity of opinions did not indicate good diversity or fairly cover the
various opinions originally presented in the source documents. We found that
BART and ChatGPT can better capture diverse opinions presented in the source
documents.
- Abstract(参考訳): 意見要約は、コアメッセージと意見を保持しながら、ソースドキュメントに提示された情報を集約することを目的としたタスクである。
多数意見のみを表す要約は、その要約に記載されていない少数意見を残す。
本稿では,ある目標に対する姿勢を意見として活用する。
本研究では, モデル生成要約が多様な意見を網羅できるかどうかを評価する, 意見多様性の観点から, 意見要約のバイアスについて検討する。
さらに, 意見類似性, 二つの意見が, ある話題に対するスタンスと, 意見多様性との関係において, どのように密接に関連しているかを考察した。
トピックに対する姿勢のレンズを通して、COVID-19下での3つの議論から、意見の多様性と類似性を検討する。
これらのトピックに関する実験結果から,意見の類似度が高いほど多様性が示されず,また原資料に提示された様々な意見をかなりカバーすることが明らかとなった。
我々は、BARTとChatGPTが、ソース文書で提示された多様な意見をよりよく捉えられることを発見した。
関連論文リスト
- Bias in Opinion Summarisation from Pre-training to Adaptation: A Case
Study in Political Bias [4.964212137957899]
オピニオン要約は、製品レビュー、ディスカッションフォーラム、ソーシャルメディアのテキストなどの文書で提示される健全な情報と意見を要約することを目的としている。
偏見のある要約を作ることは 世論を揺さぶるリスクがあります
論文 参考訳(メタデータ) (2024-02-01T04:15:59Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Automatically Evaluating Opinion Prevalence in Opinion Summarization [0.9971537447334835]
本稿では,要約が示す意見の正当性をテストするための自動尺度を提案する。
本稿では,要約文の事実整合性を評価するための既存手法について考察する。
本研究は, 著者による要約では, ランダムに選択した抽出結果よりも, わずかに優れた評価率しか得られていないことを示す。
論文 参考訳(メタデータ) (2023-07-26T17:13:00Z) - Scientific Opinion Summarization: Meta-review Generation with
Checklist-guided Iterative Introspection [61.99041542129813]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
39のカンファレンスから10,989のペーパーメタレビューと40,903のペーパーレビューをカバーする新しいORSUMデータセットを紹介した。
結論として,(1) 人書き要約はガイドラインに従わないものが多いため,必ずしも信頼できないものであって,(2) 課題分解と反復的自己調整の組み合わせは,有望な議論参加能力を示している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - Fine-Grained Opinion Summarization with Minimal Supervision [48.43506393052212]
FineSumは、複数のドキュメントから意見を抽出することでターゲットをプロファイルすることを目的としている。
FineSumは、生のコーパスから意見語句を自動的に識別し、異なる側面と感情に分類し、各アスペクト/感覚の下に複数のきめ細かい意見クラスタを構築する。
ベンチマークの自動評価と定量的人的評価の両方が,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-10-17T15:16:34Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - MultiOpEd: A Corpus of Multi-Perspective News Editorials [46.86995662807853]
MultiOpEdはオープンドメインのニュース編集コーパスであり、ニュース編集における議論構造に関連する様々なタスクをサポートする。
本研究では,マルチタスク学習環境における視点要約の問題について,事例研究として考察する。
誘導タスクを補助タスクとすることで、視点要約の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-06-04T21:23:22Z) - Operationalizing Framing to Support Multiperspective Recommendations of
Opinion Pieces [1.3286165491120467]
コミュニケーション科学から取り入れたフレーミングの概念を運用する。
この概念をトピック関連推奨リストの再ランク付けに適用する。
オフライン評価の結果,提案手法はレコメンデーションリストの視点の多様性を高めることができることが示された。
論文 参考訳(メタデータ) (2021-01-15T14:40:34Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z) - Towards Quantifying the Distance between Opinions [66.29568619199074]
テキストの類似性のみに基づく測度や、全体の感情に基づく測度は、意見間の距離を効果的に捉えられないことが多い。
そこで本稿では,ニュアンス観測を生かした意見の類似性を捉えるための新しい距離尺度を提案する。
教師なしの環境では、既存の手法と比較して、調整ランダム指数のスコア(最大56倍)とシルエット係数(最大21倍)が大幅に向上する。
論文 参考訳(メタデータ) (2020-01-27T16:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。