論文の概要: Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection
- arxiv url: http://arxiv.org/abs/2307.12935v1
- Date: Mon, 24 Jul 2023 16:55:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 13:33:19.292697
- Title: Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection
- Title(参考訳): 例によるルール: 説明可能なヘイトスピーチ検出のための論理規則の活用
- Authors: Christopher Clarke, Matthew Hall, Gaurav Mittal, Ye Yu, Sandra Sajeev,
Jason Mars, Mei Chen
- Abstract要約: Rule By Example(RBE)は、テキストコンテンツモデレーションのタスクに対する論理規則から学習するための、新規なコントラスト学習手法である。
RBEはルール基底の予測を提供することができ、典型的なディープラーニングベースのアプローチと比較して説明可能でカスタマイズ可能な予測を可能にする。
- 参考スコア(独自算出の注目度): 13.772240348963303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classic approaches to content moderation typically apply a rule-based
heuristic approach to flag content. While rules are easily customizable and
intuitive for humans to interpret, they are inherently fragile and lack the
flexibility or robustness needed to moderate the vast amount of undesirable
content found online today. Recent advances in deep learning have demonstrated
the promise of using highly effective deep neural models to overcome these
challenges. However, despite the improved performance, these data-driven models
lack transparency and explainability, often leading to mistrust from everyday
users and a lack of adoption by many platforms. In this paper, we present Rule
By Example (RBE): a novel exemplar-based contrastive learning approach for
learning from logical rules for the task of textual content moderation. RBE is
capable of providing rule-grounded predictions, allowing for more explainable
and customizable predictions compared to typical deep learning-based
approaches. We demonstrate that our approach is capable of learning rich rule
embedding representations using only a few data examples. Experimental results
on 3 popular hate speech classification datasets show that RBE is able to
outperform state-of-the-art deep learning classifiers as well as the use of
rules in both supervised and unsupervised settings while providing explainable
model predictions via rule-grounding.
- Abstract(参考訳): コンテンツモデレーションに対する古典的なアプローチは通常、コンテンツにフラグを付けるルールベースのヒューリスティックアプローチを適用する。
ルールは人間が容易にカスタマイズでき、直感的に解釈できるが、本質的に脆弱であり、今日オンラインで見られる望ましくないコンテンツの量を減らすのに必要な柔軟性や堅牢さが欠如している。
ディープラーニングの最近の進歩は、これらの課題を克服するために非常に効果的なディープニューラルモデルを使用することの可能性を実証している。
しかしながら、パフォーマンスが向上したにも関わらず、これらのデータ駆動モデルは透明性と説明可能性に欠けており、日々のユーザからの不信や、多くのプラットフォームで採用されていないことが多い。
本稿では,テキストコンテンツモデレーションタスクのための論理規則から学習するための,新しい例題ベースのコントラスト学習手法である rule by example (rbe) を提案する。
rbeはルールに基づく予測を提供し、一般的なディープラーニングベースのアプローチよりも説明可能でカスタマイズ可能な予測を可能にする。
本手法は,少数のデータ例のみを用いてリッチなルール埋め込み表現を学習できることを実証する。
3つの一般的なヘイトスピーチ分類データセットによる実験結果から、RDEは最先端のディープラーニング分類器よりも優れており、教師付きと教師なしの両方の設定におけるルールの使用と、ルールグラウンドによる説明可能なモデル予測を提供する。
関連論文リスト
- Collapsed Language Models Promote Fairness [88.48232731113306]
偏りのある言語モデルはトークン表現と単語埋め込みの間に崩壊したアライメントを示す。
我々は,幅広い脱バイアス法において,公平性を効果的に向上する原理的な微調整法を設計する。
論文 参考訳(メタデータ) (2024-10-06T13:09:48Z) - On the Aggregation of Rules for Knowledge Graph Completion [9.628032156001069]
知識グラフ補完のためのルール学習アプローチは、純粋にニューラルモデルに対して効率的、解釈可能、競争的である。
既存のアグリゲーションアプローチは,予測ルールよりも限界推論操作として表現できることを示す。
本稿では,従来の戦略を組み合わさり,計算上より高価なアプローチと競合する,効率的で見落とされがちなベースラインを提案する。
論文 参考訳(メタデータ) (2023-09-01T07:32:11Z) - Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Deep Explainable Learning with Graph Based Data Assessing and Rule
Reasoning [4.369058206183195]
本稿では、ノイズハンドリングにおけるディープモデルの利点とエキスパートルールに基づく解釈可能性を組み合わせたエンドツーエンドのディープ・ツー・エンドのディープ・説明可能な学習手法を提案する。
提案手法は, 工業生産システムにおいて, 予測精度に匹敵し, より高い一般化安定性, より優れた解釈可能性を示す。
論文 参考訳(メタデータ) (2022-11-09T05:58:56Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Differentiable Rule Induction with Learned Relational Features [9.193818627108572]
Rule Network(RRN)は、属性間の線形関係を表す述語とそれらを使用するルールを学習するニューラルネットワークである。
ベンチマークタスクでは、これらの述語は解釈可能性を維持するのに十分単純であるが、予測精度を改善し、アートルール誘導アルゴリズムの状態と比較してより簡潔なルールセットを提供する。
論文 参考訳(メタデータ) (2022-01-17T16:46:50Z) - An Exploration And Validation of Visual Factors in Understanding
Classification Rule Sets [21.659381756612866]
ルールセットは、透明性と知性が必要な設定でモデルロジックを伝える手段として、機械学習(ML)でよく使用される。
意外なことに、これまではルールを提示するための視覚的な代替策を探究する作業が限られていた。
この作業は、MLモデルを理解するためのコミュニケーション戦略としてルールを使用する場合、実践者がより効果的なソリューションを採用するのに役立つ。
論文 参考訳(メタデータ) (2021-09-19T16:33:16Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Pattern Learning for Detecting Defect Reports and Improvement Requests
in App Reviews [4.460358746823561]
本研究では、レビューを欠陥報告と改善の要求として分類することで、この行動可能な洞察の欠如を狙う新しいアプローチに従う。
我々は,遺伝的プログラミングを通じて語彙・意味パターンを学習できる教師付きシステムを採用している。
自動学習パターンは手作業で生成したパターンよりも優れており、生成可能であることを示す。
論文 参考訳(メタデータ) (2020-04-19T08:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。