論文の概要: Detecting Relevant Information in High-Volume Chat Logs: Keyphrase
Extraction for Grooming and Drug Dealing Forensic Analysis
- arxiv url: http://arxiv.org/abs/2311.04905v1
- Date: Fri, 15 Sep 2023 03:18:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 16:31:54.580635
- Title: Detecting Relevant Information in High-Volume Chat Logs: Keyphrase
Extraction for Grooming and Drug Dealing Forensic Analysis
- Title(参考訳): 大量チャットログにおける関連情報の検出--グルーミングのためのキーフレーズ抽出と薬物取引法医学的分析
- Authors: Jeovane Hon\'orio Alves, Hor\'acio A. C. G. Pedroso, Rafael Honorio
Venetikides, Joel E. M. K\"oster, Luiz Rodrigo Grochocki, Cinthia O. A.
Freitas, Jean Paul Barddal
- Abstract要約: 本稿では,グルーミングと薬物取引を含む多量チャットログにおける関連情報を検出するために,教師付きキーフレーズ抽出手法を提案する。
提案手法であるJointKPE++は,より長いテキストを効果的に処理するための改良を活用して,JointKPEキーフレーズ抽出器上に構築する。
- 参考スコア(独自算出の注目度): 2.1638802483603987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing use of digital communication platforms has given rise to various
criminal activities, such as grooming and drug dealing, which pose significant
challenges to law enforcement and forensic experts. This paper presents a
supervised keyphrase extraction approach to detect relevant information in
high-volume chat logs involving grooming and drug dealing for forensic
analysis. The proposed method, JointKPE++, builds upon the JointKPE keyphrase
extractor by employing improvements to handle longer texts effectively. We
evaluate JointKPE++ using BERT-based pre-trained models on grooming and drug
dealing datasets, including BERT, RoBERTa, SpanBERT, and BERTimbau. The results
show significant improvements over traditional approaches and demonstrate the
potential for JointKPE++ to aid forensic experts in efficiently detecting
keyphrases related to criminal activities.
- Abstract(参考訳): デジタルコミュニケーションプラットフォームの利用の増加は、グルーミングや薬物取引など様々な犯罪行為を引き起こしており、法執行機関や法医学の専門家にとって大きな課題となっている。
本稿では,法医学的分析のためのグルーミングや薬物処理を含む大量チャットログの関連情報を検出するための教師付きキーフレーズ抽出手法を提案する。
提案手法であるJointKPE++は,より長いテキストを効果的に処理するための改良を活用して,JointKPEキーフレーズ抽出器上に構築する。
BERT, RoBERTa, SpanBERT, BERTimbauなどの薬物処理データセットにおいて, BERTに基づく事前学習モデルを用いたJointKPE++の評価を行った。
その結果,従来の手法に比べて有意な改善がみられ,犯罪行為に関連するキーフレーズを効率的に検出する法医学的専門家を支援するjointkpe++の可能性が示された。
関連論文リスト
- Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - Enhancing Phrase Representation by Information Bottleneck Guided Text Diffusion Process for Keyphrase Extraction [9.307602861891926]
キーフレーズ抽出は自然言語処理において重要な課題である。
本研究では,拡張キーフレーズ表現を生成するためのテキスト拡散過程を導出するDiff-KPEを提案する。
実験により、Diff-KPEは、大規模なオープンドメインキーフレーズ抽出ベンチマーク、OpenKP、科学ドメインデータセットKP20Kにおいて、既存のKPEメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-17T02:26:30Z) - Unveiling the Potential of Knowledge-Prompted ChatGPT for Enhancing Drug
Trafficking Detection on Social Media [30.791563171321062]
そこで本研究では,人間がLLMと対話し,その検出作業を行うためのインタフェースとして,emphknowledgeインフォームドプロンプトを構成するための分析フレームワークを提案する。
実験により,本フレームワークは薬物輸送検出精度において,他のベースライン言語モデルよりも優れていることが示された。
この研究がソーシャルネットワークにもたらした意味は、オンラインのセキュリティと公衆安全を改善するための分析ツールに事前知識とシナリオベースのプロンプトを組み込むことの重要性を強調している。
論文 参考訳(メタデータ) (2023-07-07T16:15:59Z) - HOICLIP: Efficient Knowledge Transfer for HOI Detection with
Vision-Language Models [30.279621764192843]
人間-物体相互作用(Human-Object Interaction、HOI)は、人-物体のペアを局所化し、その相互作用を認識することを目的としている。
対照的な言語-画像事前学習(CLIP)は、HOI検出器に先立って相互作用を提供する大きな可能性を示している。
本稿では,CLIPから事前知識を効率的に抽出し,より優れた一般化を実現する新しいHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T07:54:54Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - Deep Keyphrase Completion [59.0413813332449]
Keyphraseは、非常にコンパクトで簡潔で、意味に満ちた文書内容の正確な情報を提供し、談話理解、組織化、テキスト検索に広く利用されている。
本論文では,文書内容と既知のキーフレーズの数が極めて限られているため,テキストキーフレーズの完全化(KPC)を提案し,文書中のキーフレーズをより多く生成する(科学出版など)。
深層学習フレームワークを通じて、既知のキーフレーズとともに文書内容の深い意味的意味を捉えようとすることから、textitdeep keyphrase completion (DKPC) と命名する。
論文 参考訳(メタデータ) (2021-10-29T07:15:35Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Keyword Extraction for Improved Document Retrieval in Conversational
Search [10.798537120200006]
混合開始型会話検索は大きな利点をもたらす。
会話からユーザーが提供する追加情報を取り入れることには、いくつかの課題がある。
我々は2つの対話型キーワード抽出データセットを収集し、それらを組み込んだエンドツーエンドの文書検索パイプラインを提案する。
論文 参考訳(メタデータ) (2021-09-13T13:55:37Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z) - Capturing Global Informativeness in Open Domain Keyphrase Extraction [40.57116173502994]
Open- domain KeyPhrase extract (KPE)は、ドメインや品質の制約なしにドキュメントからキーフレーズを抽出することを目的としている。
本稿では,事前学習言語モデルに基づくオープンドメインKPEアーキテクチャであるJointKPEを提案する。
JointKPEは、ドキュメント全体の情報度を見積もることで、キーフレーズのランク付けを学び、キーフレーズチャンキングタスクで共同で訓練される。
論文 参考訳(メタデータ) (2020-04-28T16:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。