論文の概要: Polarity Calibration for Opinion Summarization
- arxiv url: http://arxiv.org/abs/2404.01706v1
- Date: Tue, 2 Apr 2024 07:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:28:41.417310
- Title: Polarity Calibration for Opinion Summarization
- Title(参考訳): オピニオン要約のための極性校正
- Authors: Yuanyuan Lei, Kaiqiang Song, Sangwoo Cho, Xiaoyang Wang, Ruihong Huang, Dong Yu,
- Abstract要約: 極性校正は、出力要約の極性と入力テキストの極性を調整することを目的としている。
本稿では,製品レビューの要約と政治意見記事の要約という,2種類の意見要約タスクをモデルとして評価する。
- 参考スコア(独自算出の注目度): 46.83053173308394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Opinion summarization is automatically generating summaries from a variety of subjective information, such as product reviews or political opinions. The challenge of opinions summarization lies in presenting divergent or even conflicting opinions. We conduct an analysis of previous summarization models, which reveals their inclination to amplify the polarity bias, emphasizing the majority opinions while ignoring the minority opinions. To address this issue and make the summarizer express both sides of opinions, we introduce the concept of polarity calibration, which aims to align the polarity of output summary with that of input text. Specifically, we develop a reinforcement training approach for polarity calibration. This approach feeds the polarity distance between output summary and input text as reward into the summarizer, and also balance polarity calibration with content preservation and language naturality. We evaluate our Polarity Calibration model (PoCa) on two types of opinions summarization tasks: summarizing product reviews and political opinions articles. Automatic and human evaluation demonstrate that our approach can mitigate the polarity mismatch between output summary and input text, as well as maintain the content semantic and language quality.
- Abstract(参考訳): 意見要約は、製品レビューや政治的意見など、さまざまな主観的な情報から自動的に要約を生成する。
意見の要約の課題は、異なる意見や矛盾する意見を提示することにある。
我々は,従来の要約モデルの分析を行い,極性バイアスを増幅する傾向を明らかにし,少数意見を無視しながら多数意見を強調した。
この問題に対処し、要約者が意見の両面を表現するために、出力要約の極性を入力テキストの極性と整合させる極性校正の概念を導入する。
具体的には、極性校正のための強化訓練手法を開発する。
提案手法は, 出力要約と入力テキスト間の極性距離を報酬として要約器に供給し, コンテンツ保存と言語自然性のバランスをとる。
製品レビューと政治意見記事の要約という,2種類の意見要約タスクに基づいて,極性校正モデル(PoCa)を評価した。
自動的および人為的評価は,提案手法が出力要約と入力テキスト間の極性ミスマッチを緩和し,コンテンツセマンティクスと言語品質を維持できることを示す。
関連論文リスト
- P^3SUM: Preserving Author's Perspective in News Summarization with Diffusion Language Models [57.571395694391654]
既存のアプローチは、要約の50%以上で、ニュース記事の政治的意見やスタンスを変えている。
政治的視点分類器によって制御される拡散モデルに基づく要約手法であるP3SUMを提案する。
3つのニュース要約データセットの実験により、P3SUMは最先端の要約システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-16T10:14:28Z) - Mitigating Framing Bias with Polarity Minimization Loss [56.24404488440295]
偏見バイアスは、実際の出来事の知覚を歪ませることによって政治的分極を悪化させる重要な役割を担っている。
そこで本研究では,フレーミングバイアスを低減するために,偏光入力項目間の極性差を最小限に抑える新たな損失関数を提案する。
論文 参考訳(メタデータ) (2023-11-03T09:50:23Z) - Bias in News Summarization: Measures, Pitfalls and Corpora [4.917075909999548]
本稿では,要約モデルにおけるバイアス付き行動の定義と実用運用について紹介する。
目的合成モデルと汎用チャットモデルの両方で生成された英語要約における性別バイアスを測定する。
単一文書要約におけるコンテンツ選択は、性バイアスの影響をほとんど受けていないが、幻覚は偏見の証拠である。
論文 参考訳(メタデータ) (2023-09-14T22:20:27Z) - Biased processing and opinion polarization: experimental refinement of
argument communication theory in the context of the energy debate [0.0]
偏りのある議論処理に関する実験的研究と群検討の計算理論を組み合わせる。
この実験は、現在の態度に合わせた議論をもっと説得力のあるものにし、それに反対する人たちを格下げする傾向が強いことを示している。
偏りのある処理の強さと期待される姿勢変化を関連付ける数学的モデルを導出する。
論文 参考訳(メタデータ) (2022-12-20T09:35:53Z) - Human-in-the-loop Abstractive Dialogue Summarization [61.4108097664697]
我々は、異なるレベルの人間のフィードバックをトレーニングプロセスに組み込むことを提案する。
これにより、モデルをガイドして、人間が要約に用いている振る舞いを捉えることができます。
論文 参考訳(メタデータ) (2022-12-19T19:11:27Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - Detecting Polarized Topics in COVID-19 News Using Partisanship-aware
Contextualized Topic Embeddings [3.9761027576939405]
ニュースメディアの分極化の高まりは、熱狂的な意見の相違、論争、さらには暴力までもが非難されている。
パルチザンニュースソースから偏光トピックを自動的に検出する手法であるPartisanship-aware Contextualized Topic Embeddings (PaCTE)を提案する。
論文 参考訳(メタデータ) (2021-04-15T23:05:52Z) - Political Depolarization of News Articles Using Attribute-aware Word
Embeddings [7.411577497708497]
米国では政治的分極が増加している。
この分極は、イデオロギーエコーチャンバーの生成に寄与することで、公共の球体に悪影響を及ぼす。
ニュース記事を偏極化するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2021-01-05T07:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。