論文の概要: Knowledge Acquisition on Mass-shooting Events via LLMs for AI-Driven Justice
- arxiv url: http://arxiv.org/abs/2504.12545v1
- Date: Thu, 17 Apr 2025 00:13:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:39:38.074100
- Title: Knowledge Acquisition on Mass-shooting Events via LLMs for AI-Driven Justice
- Title(参考訳): AI駆動正義のためのLLMによるマスシューティングイベントの知識獲得
- Authors: Benign John Ihugba, Afsana Nasrin, Ling Wu, Lin Li, Lijun Qian, Xishuang Dong,
- Abstract要約: 本稿では,NER技術を用いて,マスシューティングイベントの知識獲得を目的とした最初のデータセットを提案する。
犯罪人、被害者、場所、犯罪機器など、法的および調査目的に不可欠な重要な実体を特定することに焦点を当てている。
実世界のマスシューティングコーパスの実験では、GPT-4oが大量シューティングNERの最も効果的なモデルであり、マイクロ精度、マイクロリコール、マイクロF1スコアを達成している。
- 参考スコア(独自算出の注目度): 5.928041687222943
- License:
- Abstract: Mass-shooting events pose a significant challenge to public safety, generating large volumes of unstructured textual data that hinder effective investigations and the formulation of public policy. Despite the urgency, few prior studies have effectively automated the extraction of key information from these events to support legal and investigative efforts. This paper presented the first dataset designed for knowledge acquisition on mass-shooting events through the application of named entity recognition (NER) techniques. It focuses on identifying key entities such as offenders, victims, locations, and criminal instruments, that are vital for legal and investigative purposes. The NER process is powered by Large Language Models (LLMs) using few-shot prompting, facilitating the efficient extraction and organization of critical information from diverse sources, including news articles, police reports, and social media. Experimental results on real-world mass-shooting corpora demonstrate that GPT-4o is the most effective model for mass-shooting NER, achieving the highest Micro Precision, Micro Recall, and Micro F1-scores. Meanwhile, o1-mini delivers competitive performance, making it a resource-efficient alternative for less complex NER tasks. It is also observed that increasing the shot count enhances the performance of all models, but the gains are more substantial for GPT-4o and o1-mini, highlighting their superior adaptability to few-shot learning scenarios.
- Abstract(参考訳): マス・シューティング・イベントは公共の安全に重大な課題をもたらし、効果的な調査や公共政策の定式化を妨げる大量の構造化されていないテキストデータを生成する。
緊急性にもかかわらず、これらの出来事から重要情報の抽出を効果的に自動化し、法的かつ調査的な努力を支援している先行研究はほとんどない。
本稿では,NER技術を用いて,マスシューティングイベントの知識獲得を目的とした最初のデータセットを提案する。
犯罪人、被害者、場所、犯罪機器など、法的および調査目的に不可欠な重要な実体を特定することに焦点を当てている。
NERプロセスはLLM(Large Language Models)を使用しており、ニュース記事、警察報告、ソーシャルメディアなど様々な情報源から重要な情報の効率的な抽出と整理を容易にする。
実世界のマスシューティングコーパスの実験結果から, GPT-4oはマイクロ精度, マイクロリコール, マイクロF1スコアを達成し, マスシューティングNERの最も効果的なモデルであることが示された。
一方、o1-miniは競争力のあるパフォーマンスを提供し、より複雑なNERタスクのリソース効率の代替となる。
また, ショットカウントの増加は全モデルの性能を向上させるが, GPT-4o や o1-mini の方が向上し, 少数の学習シナリオへの適応性が向上した。
関連論文リスト
- Enhancing the De-identification of Personally Identifiable Information in Educational Data [0.0]
PIIは、学生や教師のプライバシーを保護し、信頼を維持するための重要な要件である。
本研究では,GPT-4o-miniモデルをPII検出タスクの費用対効果と効率的な解として検討した。
論文 参考訳(メタデータ) (2025-01-14T20:53:38Z) - Evaluating the Performance of Large Language Models in Scientific Claim Detection and Classification [0.0]
本研究では,Twitterのようなプラットフォーム上での誤情報を緩和する革新的な手法として,LLM(Large Language Models)の有効性を評価する。
LLMは、従来の機械学習モデルに関連する広範なトレーニングと過度に適合する問題を回避し、事前訓練された適応可能なアプローチを提供する。
特定データセットを用いたLCMの性能の比較分析を行い、公衆衛生コミュニケーションへの応用のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-21T05:02:26Z) - Scaling of Search and Learning: A Roadmap to Reproduce o1 from Reinforcement Learning Perspective [77.94874338927492]
OpenAIは、o1の背後にある主要な技術は強化学習であると主張している。
本稿では、強化学習の観点から、o1を達成するためのロードマップを分析する。
論文 参考訳(メタデータ) (2024-12-18T18:24:47Z) - An Empirical Study on Information Extraction using Large Language Models [36.090082785047855]
人間に似た大規模言語モデル(LLM)は多くの自然言語処理(NLP)関連タスクに非常に役立つことが証明されている。
本稿では,GPT-4の情報抽出能力に対する一連の単純なプロンプトベース手法の効果について検討する。
論文 参考訳(メタデータ) (2024-08-31T07:10:16Z) - Active Learning for Derivative-Based Global Sensitivity Analysis with Gaussian Processes [70.66864668709677]
高価なブラックボックス関数のグローバル感度解析におけるアクティブラーニングの問題点を考察する。
関数評価は高価であるため,最も価値の高い実験資源の優先順位付けにアクティブラーニングを利用する。
本稿では,デリバティブに基づくグローバル感度測定の重要量を直接対象とする,新たな能動的学習獲得関数を提案する。
論文 参考訳(メタデータ) (2024-07-13T01:41:12Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [50.079690200471454]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - Enhancing Robustness of LLM-Synthetic Text Detectors for Academic
Writing: A Comprehensive Analysis [35.351782110161025]
大規模言語モデル(LLM)は、仕事と研究の方法に革命をもたらす多くの利点を提供する。
彼らはまた、潜在的なネガティブな結果のために、かなりの注意を払っている。
1つの例は、人的貢献の少ない学術報告書や論文を作成することである。
論文 参考訳(メタデータ) (2024-01-16T01:58:36Z) - An Empirical Study on Information Extraction using Large Language Models [36.090082785047855]
人間に似た大規模言語モデル(LLM)は多くの自然言語処理(NLP)関連タスクに非常に役立つことが証明されている。
本稿では,GPT-4の情報抽出能力に対する一連の単純なプロンプトベース手法の効果について検討する。
論文 参考訳(メタデータ) (2023-05-23T18:17:43Z) - FairMOT: On the Fairness of Detection and Re-Identification in Multiple
Object Tracking [92.48078680697311]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要な問題である。
本稿では,FairMOTと呼ばれる,アンカーフリーなオブジェクト検出アーキテクチャCenterNetをベースとした,シンプルかつ効果的なアプローチを提案する。
このアプローチは、検出と追跡の両方において高い精度を達成する。
論文 参考訳(メタデータ) (2020-04-04T08:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。