論文の概要: If there's a Trigger Warning, then where's the Trigger? Investigating Trigger Warnings at the Passage Level
- arxiv url: http://arxiv.org/abs/2404.09615v1
- Date: Mon, 15 Apr 2024 09:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 12:50:12.953730
- Title: If there's a Trigger Warning, then where's the Trigger? Investigating Trigger Warnings at the Passage Level
- Title(参考訳): トリガー警告があるなら、トリガーはどこにあるのか? パスレベルでトリガー警告を調査中
- Authors: Matti Wiegmann, Jennifer Rakete, Magdalena Wolska, Benno Stein, Martin Potthast,
- Abstract要約: トリガーは、この内容が一部の読者グループによって有害であると認識された場合、機密性の高い内容の文書を序文で警告する。
しかし、どの部分で警告を割り当てたのかは不明だ。
本稿では,文書のトリガーパスを手動と計算の両方で識別できる可能性について検討する。
- 参考スコア(独自算出の注目度): 27.59190563321366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trigger warnings are labels that preface documents with sensitive content if this content could be perceived as harmful by certain groups of readers. Since warnings about a document intuitively need to be shown before reading it, authors usually assign trigger warnings at the document level. What parts of their writing prompted them to assign a warning, however, remains unclear. We investigate for the first time the feasibility of identifying the triggering passages of a document, both manually and computationally. We create a dataset of 4,135 English passages, each annotated with one of eight common trigger warnings. In a large-scale evaluation, we then systematically evaluate the effectiveness of fine-tuned and few-shot classifiers, and their generalizability. We find that trigger annotation belongs to the group of subjective annotation tasks in NLP, and that automatic trigger classification remains challenging but feasible.
- Abstract(参考訳): トリガー警告(英: Trigger warnings)は、特定の読者グループによって有害であると認識された場合、機密性の高い内容の文書を序文に記載するラベルである。
文書に関する警告は読み込む前に直感的に表示する必要があるため、著者は通常、文書レベルでトリガー警告を割り当てる。
しかし、どの部分で警告を割り当てたのかは不明だ。
本稿では,文書のトリガーパスを手動と計算の両方で識別できる可能性について検討する。
私たちは4,135の英通のデータセットを作成し、それぞれに8つの一般的なトリガー警告の1つを注釈付けします。
大規模評価では、微調整および小ショット分類器の有効性とその一般化性について体系的に評価する。
トリガーアノテーションはNLPの主観的アノテーションタスクのグループに属しており、自動トリガー分類は難しいが実現可能である。
関連論文リスト
- A Study of Backdoors in Instruction Fine-tuned Language Models [16.10608633005216]
バックドアのデータ中毒は、そのような攻撃の回避の性質のために深刻なセキュリティ上の懸念である。
このようなバックドア攻撃は、反応の感情を変えたり、検閲に違反したり、過剰に拒否したり(合法的なクエリの検閲を呼び起こしたり)、偽のコンテンツを注入したり、ナンセンスな反応(幻覚)を引き起こす。
論文 参考訳(メタデータ) (2024-06-12T00:01:32Z) - Sentence-level Event Detection without Triggers via Prompt Learning and
Machine Reading Comprehension [4.7644324702494165]
本稿では,機械読解と素早い学習に基づくトリガーフリー事象検出モデルを提案する。
既存のトリガーベースとトリガーフリーの手法と比較して、2つのイベント検出ベンチマークデータセットに関する実験的研究により、提案手法が競合性能を達成できることが示されている。
論文 参考訳(メタデータ) (2023-06-25T09:03:56Z) - Trigger Warnings: Bootstrapping a Violence Detector for FanFiction [24.04917978057961]
本稿では,新しい計算課題であるトリガー警告の課題に対して,最初のデータセットと評価結果を提示する。
ラベル付きコーパスデータは、有名なファンフィクションサイトArchive of Our Own (AO3)にホストされた物語作品から収集されている。
論文 参考訳(メタデータ) (2022-09-09T17:27:03Z) - Point-Teaching: Weakly Semi-Supervised Object Detection with Point
Annotations [81.02347863372364]
本稿では,弱い半教師付きオブジェクト検出フレームワークであるPoint-Teachingを提案する。
具体的には,ポイントアノテート画像の擬似ラベルを生成するためのハンガリーの点マッチング手法を提案する。
そこで本研究では,不整合点の影響を低減するため,単純なyet- effective data augmentation(ポイント誘導コピーペースト)を提案する。
論文 参考訳(メタデータ) (2022-06-01T07:04:38Z) - Triggerless Backdoor Attack for NLP Tasks with Clean Labels [31.308324978194637]
バックドア攻撃で有毒なデータを構築するための標準的な戦略は、選択した文にトリガーを挿入し、元のラベルをターゲットラベルに変更することである。
この戦略は、トリガーとラベルの両方の観点から容易に検出されるという深刻な欠陥を伴っている。
そこで本研究では,外部トリガーを必要としないテキストバックドア攻撃を行う新たな手法を提案する。
論文 参考訳(メタデータ) (2021-11-15T18:36:25Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - A Token-level Reference-free Hallucination Detection Benchmark for
Free-form Text Generation [50.55448707570669]
本稿ではトークンレベルの参照なし幻覚検出タスクとHaDesというアノテーション付きデータセットを提案する。
このデータセットを作成するために、まず英語のウィキペディアから抽出された大量のテキストセグメントを摂り込み、それからクラウドソースアノテーションで検証する。
論文 参考訳(メタデータ) (2021-04-18T04:09:48Z) - Detecting Hallucinated Content in Conditional Neural Sequence Generation [165.68948078624499]
出力シーケンスの各トークンが(入力に含まれていない)幻覚化されているかどうかを予測するタスクを提案する。
また、合成データに微調整された事前学習言語モデルを用いて幻覚を検出する方法についても紹介する。
論文 参考訳(メタデータ) (2020-11-05T00:18:53Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z) - Generating Label Cohesive and Well-Formed Adversarial Claims [44.29895319592488]
敵攻撃は、訓練されたモデルの重大な脆弱性と欠陥を明らかにする。
本研究は,真理を保存した事実チェックシステムに対して,敵対的な攻撃を発生させる方法について検討する。
生成した攻撃は, クレームの方向性と意味的妥当性を, 従来よりも良好に維持していることがわかった。
論文 参考訳(メタデータ) (2020-09-17T10:50:42Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。