論文の概要: Reproducibility Report: Contextualizing Hate Speech Classifiers with
Post-hoc Explanation
- arxiv url: http://arxiv.org/abs/2105.11412v1
- Date: Mon, 24 May 2021 17:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:30:58.947632
- Title: Reproducibility Report: Contextualizing Hate Speech Classifiers with
Post-hoc Explanation
- Title(参考訳): 再現性レポート:ポストホック説明によるヘイトスピーチ分類の文脈化
- Authors: Kiran Purohit, Owais Iqbal and Ankan Mullick
- Abstract要約: 本報告では, ML再現性チャレンジ2020の範囲内で, ポストホック説明紙によるヘイトスピーチの文脈化を評価する。
本研究は,本論文を構成する2つの側面,すなわち,方法自体と提案された結果の有効性に焦点をあてる。
- 参考スコア(独自算出の注目度): 0.08594140167290096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The presented report evaluates Contextualizing Hate Speech Classifiers with
Post-hoc Explanation paper within the scope of ML Reproducibility Challenge
2020. Our work focuses on both aspects constituting the paper: the method
itself and the validity of the stated results. In the following sections, we
have described the paper, related works, algorithmic frameworks, our
experiments and evaluations.
- Abstract(参考訳): 本報告では, ML再現性チャレンジ2020の範囲内で, ポストホック説明紙を用いた文脈的ヘイトスピーチ分類器の評価を行った。
本研究は,本論文を構成する2つの側面,すなわち方法自体と提案結果の有効性に焦点を当てる。
以下の節では,論文,関連研究,アルゴリズムフレームワーク,実験および評価について述べる。
関連論文リスト
- Speech vs. Transcript: Does It Matter for Human Annotators in Speech Summarization? [35.71047777304832]
録音を聴くアノテータに基づく要約は、アノテータが書き起こしを読むものとは異なるかを検討する。
音声に基づく要約は、転写文に基づく要約よりも、現実的に一貫性があり、情報選択的であることが判明した。
論文 参考訳(メタデータ) (2024-08-12T13:25:53Z) - A Course Shared Task on Evaluating LLM Output for Clinical Questions [49.78601596538669]
本稿では,健康関連臨床問題に対する有害な回答を生成するために,LLM(Large Language Models)の出力を評価することに焦点を当てた。
課題設計について考察し,学生からのフィードバックを報告する。
論文 参考訳(メタデータ) (2024-07-31T19:24:40Z) - FENICE: Factuality Evaluation of summarization based on Natural language Inference and Claim Extraction [85.26780391682894]
自然言語推論とクレーム抽出(FENICE)に基づく要約のファクチュアリティ評価を提案する。
FENICEは、ソース文書内の情報と、要約から抽出されたクレームと呼ばれる一連の原子的事実との間のNLIベースのアライメントを利用する。
我々の測定基準は、事実性評価のためのデファクトベンチマークであるAGGREFACTに関する新しい技術状況を設定する。
論文 参考訳(メタデータ) (2024-03-04T17:57:18Z) - EmphAssess : a Prosodic Benchmark on Assessing Emphasis Transfer in Speech-to-Speech Models [25.683827726880594]
EmphAssessは,音声合成モデルの韻律強調を符号化し再現する能力を評価するためのベンチマークである。
音声合成と音声合成の2つの課題に適用する。
どちらの場合も、ベンチマークは、モデルが音声入力の強調を符号化し、出力で正確に再現する能力を評価する。
評価パイプラインの一部として、フレームや単語レベルで強調を分類する新しいモデルであるEmphaClassを紹介する。
論文 参考訳(メタデータ) (2023-12-21T17:47:33Z) - Aspect-based Meeting Transcript Summarization: A Two-Stage Approach with
Weak Supervision on Sentence Classification [91.13086984529706]
Aspect-based meeting transcript summarization は複数の要約を生成することを目的としている。
従来の要約手法は、全ての側面の情報を1つの要約で混合する。
アスペクトベースの会議書き起こし要約のための2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T19:06:31Z) - Towards Human-Centred Explainability Benchmarks For Text Classification [4.393754160527062]
本稿では,テキスト分類の妥当性を評価するために,テキスト分類ベンチマークを拡張することを提案する。
有効な説明を行う能力について客観的に評価する上での課題について検討する。
我々は、これらのベンチマークを人間中心のアプリケーションに基礎を置くことを提案する。
論文 参考訳(メタデータ) (2022-11-10T09:52:31Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z) - Necessity and Sufficiency for Explaining Text Classifiers: A Case Study
in Hate Speech Detection [7.022948483613112]
本稿では,テキスト分類器を記述し,ヘイトスピーチ検出の文脈で解析する特徴属性法を提案する。
我々は2つの相補的で理論的に根ざしたスコア -- 必然性と十分性 -- を提供し、より情報的な説明をもたらす。
提案手法は,テストスイートから得られた同じ例の集合上で異なるヘイトスピーチ検出モデルの予測を解析し,必要条件と有効条件の異なる値が,異なる種類の偽陽性誤りに対応していることを示す。
論文 参考訳(メタデータ) (2022-05-06T15:34:48Z) - Exploring Discourse Structures for Argument Impact Classification [48.909640432326654]
本稿では、文脈経路に沿った2つの議論間の談話関係が、議論の説得力を特定する上で不可欠な要素であることを実証的に示す。
本研究では,文レベルの構造情報を大規模言語モデルから派生した文脈的特徴に注入・融合するDisCOCを提案する。
論文 参考訳(メタデータ) (2021-06-02T06:49:19Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。