論文の概要: A Legal Approach to Hate Speech: Operationalizing the EU's Legal
Framework against the Expression of Hatred as an NLP Task
- arxiv url: http://arxiv.org/abs/2004.03422v3
- Date: Tue, 5 Oct 2021 16:46:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-15 23:58:04.945489
- Title: A Legal Approach to Hate Speech: Operationalizing the EU's Legal
Framework against the Expression of Hatred as an NLP Task
- Title(参考訳): ヘイトスピーチに対する法的アプローチ:NLPタスクとしてのヘイトレッド表現に対するEUの法的枠組みの運用
- Authors: Frederike Zufall, Marius Hamacher, Katharina Kloppenborg, Torsten
Zesch
- Abstract要約: 本稿では,刑法に従属するか否かの判断を運用することで,音声検出を嫌う「法的アプローチ」を提案する。
法的な判断を一連の単純なサブ決定に分解することで、素人でさえ一貫して注釈を付けることができることを示す。
- 参考スコア(独自算出の注目度): 2.248133901806859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a 'legal approach' to hate speech detection by operationalization
of the decision as to whether a post is subject to criminal law into an NLP
task. Comparing existing regulatory regimes for hate speech, we base our
investigation on the European Union's framework as it provides a widely
applicable legal minimum standard. Accurately judging whether a post is
punishable or not usually requires legal training. We show that, by breaking
the legal assessment down into a series of simpler sub-decisions, even
laypersons can annotate consistently. Based on a newly annotated dataset, our
experiments show that directly learning an automated model of punishable
content is challenging. However, learning the two sub-tasks of `target group'
and `targeting conduct' instead of an end-to-end approach to punishability
yields better results. Overall, our method also provides decisions that are
more transparent than those of end-to-end models, which is a crucial point in
legal decision-making.
- Abstract(参考訳): 本研究では,NLP課題に刑事法を課すか否かを判断し,その判断を運用することで音声検出を嫌う「法的アプローチ」を提案する。
我々は、ヘイトスピーチに関する既存の規制体制を比較し、euの枠組みを基礎とし、広く適用可能な法的最小基準を提供する。
ある役職が罰せられるか否かを正確に判断するには、通常法的訓練が必要である。
私たちは、法的評価を一連のより単純な下級判断に分解することで、平民でさえ一貫して注釈を付けることができることを示しています。
新たにアノテートされたデータセットに基づいて,罰可能なコンテンツの自動モデルを直接学習することは困難であることを示す。
しかし、「標的グループ」と「目標行動」の2つのサブタスクを学ぶことは、罰力に対するエンドツーエンドアプローチではなく、より良い結果をもたらす。
全体として、我々の手法は、法的な意思決定の重要なポイントであるエンドツーエンドモデルよりも透明性の高い決定を提供する。
関連論文リスト
- HatePRISM: Policies, Platforms, and Research Integration. Advancing NLP for Hate Speech Proactive Mitigation [67.69631485036665]
我々は3つの観点からヘイトスピーチ規制と戦略を総合的に検討する。
以上の結果から,ヘイトスピーチ定義や地域ごとのモデレーション慣行に重大な矛盾があることが判明した。
自動ヘイトスピーチモデレーションのための統合フレームワークのさらなる検討のためのアイデアと研究の方向性を提案する。
論文 参考訳(メタデータ) (2025-07-06T11:25:23Z) - CLAIM: An Intent-Driven Multi-Agent Framework for Analyzing Manipulation in Courtroom Dialogues [0.0]
NLPの進歩にもかかわらず、法域内での操作の検出と解析におけるその応用は、明らかにされていない。
我々の研究は、操作検出にラベル付けされた1,063の注釈付き法廷会話データセットであるLegalConを導入することで、このギャップに対処する。
CLAIMは2段階のインテント駆動型マルチエージェントフレームワークであり、コンテキスト認識と情報意思決定を可能とし、操作解析の強化を目的としている。
論文 参考訳(メタデータ) (2025-06-04T16:22:59Z) - Conditioning Large Language Models on Legal Systems? Detecting Punishable Hate Speech [3.4300974012019148]
本稿では, 法体系における多段階の抽象化により, 潜在的に罰せられるヘイトスピーチを検出するために, LLM(Large Language Models)の条件付けに対する異なるアプローチについて検討する。
我々は、特定のソーシャルメディア投稿が、ドイツ刑事法で規定された憎しみに対する侮辱の犯罪行為に該当するか否かを分類するタスクに焦点をあてる。
その結果、モデルが条件付けられた抽象化のレベルに関係なく、ヘイトスピーチの法的評価において、モデルと法の専門家の間には依然として大きなパフォーマンスギャップがあることが判明した。
論文 参考訳(メタデータ) (2025-06-03T15:50:27Z) - AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - A Law Reasoning Benchmark for LLM with Tree-Organized Structures including Factum Probandum, Evidence and Experiences [76.73731245899454]
本稿では,階層的なファクトラム,証拠,暗黙的な経験に富む透明な法理推論スキーマを提案する。
このスキーマにインスパイアされた課題は、テキストのケース記述を取り込み、最終決定を正当化する階層構造を出力する。
このベンチマークは、Intelligent Courtにおける透明で説明可能なAI支援法推論の道を開く」。
論文 参考訳(メタデータ) (2025-03-02T10:26:54Z) - AnnoCaseLaw: A Richly-Annotated Dataset For Benchmarking Explainable Legal Judgment Prediction [56.797874973414636]
AnnoCaseLawは、アメリカ合衆国控訴裁判所の無視事件を慎重に注釈付けした471のデータセットである。
我々のデータセットは、より人間らしく説明可能な法的な判断予測モデルの基礎となる。
その結果、LJPは依然として厳しい課題であり、法的な前例の適用は特に困難であることが示されている。
論文 参考訳(メタデータ) (2025-02-28T19:14:48Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - LegalDuet: Learning Fine-grained Representations for Legal Judgment Prediction via a Dual-View Contrastive Learning [22.59356182108378]
法的判断予測(LJP)は、訴訟の判断結果を自動予測することを目的とした、法的人工知能の基本課題である。
既存のLJPモデルは、主に犯罪事実の記述の中で法的トリガーを特定することに焦点を当てている。
本稿では,言語モデルの事前訓練を行うLegalDuetを提案する。
論文 参考訳(メタデータ) (2024-01-27T10:28:27Z) - Intention and Context Elicitation with Large Language Models in the
Legal Aid Intake Process [0.7252027234425334]
本稿では,Large Language Models (LLMs) を用いた概念実証を行い,クライアントの基本的な意図と特定の法的事情を推論する。
また,教師付き微調整学習やオフライン強化学習を用いて意図と文脈の推論を自動的に組み込むための今後の研究方向を提案する。
論文 参考訳(メタデータ) (2023-11-22T10:04:29Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Towards Legally Enforceable Hate Speech Detection for Public Forums [29.225955299645978]
本研究では,ヘイトスピーチ検出のための新たな視点と課題を紹介する。
法の専門家による11の可能な定義に違反したデータセットを使用します。
ヘイトスピーチの明確で法的に強制可能なインスタンスを特定することの難しさを踏まえ、専門家が作成したサンプルと自動マイニングされたチャレンジセットでデータセットを拡張する。
論文 参考訳(メタデータ) (2023-05-23T04:34:41Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Pile of Law: Learning Responsible Data Filtering from the Law and a
256GB Open-Source Legal Dataset [46.156169284961045]
我々は, フィルター材料におけるトレードオフに直接対処する法則に基づくフィルタリングへのアプローチを提案する。
まず、256GBのオープンソース英語および行政データのデータセットであるPile of Lawを収集、利用可能にします。
第二に、政府が有毒または私的コンテンツを含めることを規制するために開発した法規範を精査する。
第3に、Pile of Lawが研究者に、このようなフィルタリングルールを直接データから学習する機会を提供する方法を示します。
論文 参考訳(メタデータ) (2022-07-01T06:25:15Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Distinguish Confusing Law Articles for Legal Judgment Prediction [30.083642130015317]
LJP(Lawal Judgment Prediction)は、その事実を記述したテキストが与えられた場合、訴訟の判断結果を自動的に予測するタスクである。
LJP の課題を解決するために,エンド・ツー・エンドのモデル LADAN を提案する。
論文 参考訳(メタデータ) (2020-04-06T11:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。