論文の概要: Cross-Genre Authorship Attribution via LLM-Based Retrieve-and-Rerank
- arxiv url: http://arxiv.org/abs/2510.16819v1
- Date: Sun, 19 Oct 2025 13:10:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.916597
- Title: Cross-Genre Authorship Attribution via LLM-Based Retrieve-and-Rerank
- Title(参考訳): LLM-based Retrieve-and-Rerankによるクロスジェネラルオーサシップの属性
- Authors: Shantanu Agarwal, Joel Barry, Steven Fincke, Scott Miller,
- Abstract要約: クロスジェネレーションAAのためのLLMを微調整する2段階のレトリプ・アンド・リロードフレームワークを提案する。
HIATUS の挑戦的 HRS1 と HRS2 のクロスジェネレーション AA ベンチマークでは,これまでの最先端よりも 22.3 と 34.4 の絶対成功率をかなり上回っている。
- 参考スコア(独自算出の注目度): 4.263730995186838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Authorship attribution (AA) is the task of identifying the most likely author of a query document from a predefined set of candidate authors. We introduce a two-stage retrieve-and-rerank framework that finetunes LLMs for cross-genre AA. Unlike the field of information retrieval (IR), where retrieve-and-rerank is a de facto strategy, cross-genre AA systems must avoid relying on topical cues and instead learn to identify author-specific linguistic patterns that are independent of the text's subject matter (genre/domain/topic). Consequently, for the reranker, we demonstrate that training strategies commonly used in IR are fundamentally misaligned with cross-genre AA, leading to suboptimal behavior. To address this, we introduce a targeted data curation strategy that enables the reranker to effectively learn author-discriminative signals. Using our LLM-based retrieve-and-rerank pipeline, we achieve substantial gains of 22.3 and 34.4 absolute Success@8 points over the previous state-of-the-art on HIATUS's challenging HRS1 and HRS2 cross-genre AA benchmarks.
- Abstract(参考訳): オーサリング属性(英: Authorship Attribution、AA)は、クエリドキュメントの最も可能性の高い著者を、あらかじめ定義された著者の集合から特定するタスクである。
クロスジェネレーションAAのためのLLMを微調整する2段階のレトリプ・アンド・リロードフレームワークを提案する。
検索と参照が事実上の戦略である情報検索(IR)の分野とは異なり、クロスジェネリックなAAシステムはトピックの手がかりに頼ることを避け、テキストの主題(ジェネリック/ドメイン/トピック)に依存しない著者固有の言語パターンを特定することを学ばなければならない。
その結果、リランカにおいては、IRで一般的に使用されるトレーニング戦略が、本質的にはクロスジャンルのAAと不一致であり、準最適行動につながることが示される。
そこで本研究では,リランカが著者識別信号の学習を効果的に行うことのできるターゲットデータキュレーション戦略を提案する。
LLMベースのレトリーブ・アンド・リロードパイプラインを使用することで、HIATUSの挑戦的HRS1とHRS2のクロスジェネレーションAAベンチマークにおいて、これまでの最先端よりも22.3と34.4の絶対的なSuccess@8ポイントが大幅に向上した。
関連論文リスト
- LLM-guided Hierarchical Retrieval [54.73080745446999]
LATTICEは階層的な検索フレームワークであり、LLMは対数探索の複雑さで大きなコーパスを推論し、ナビゲートすることができる。
LLM誘導探索における中心的な課題は、モデルの関連性判断がノイズが多く、文脈に依存し、階層性に気付かないことである。
我々のフレームワークは、推論集約型BRIGHTベンチマークで最先端のゼロショット性能を実現する。
論文 参考訳(メタデータ) (2025-10-15T07:05:17Z) - Who Stole Your Data? A Method for Detecting Unauthorized RAG Theft [16.826893547339548]
本稿では,RAGプラジャリズム検出に特化して設計された新しいデータセットであるRADを紹介する。
セマンティックレベルと語彙レベルの両方で保護を埋め込んだ二重層透かしシステムを開発した。
この研究は、検索強化AIシステムにおける知的財産権保護の基盤となる枠組みを確立する。
論文 参考訳(メタデータ) (2025-10-09T03:09:18Z) - Retro*: Optimizing LLMs for Reasoning-Intensive Document Retrieval [44.680580989270965]
Retro*は、推論集約的なドキュメント検索のための新しいアプローチである。
本稿では,タスクとドキュメントの関係をモデルが推論できる,ルーブリックに基づく関連性スコアリング機構を提案する。
実験の結果,Retro* は既存の文書検索手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-09-29T14:53:05Z) - Criteria-Based LLM Relevance Judgments [5.478764356647438]
大規模言語モデル(LLM)は、プロンプトを通じて関連ラベルを直接生成することで、スケーラブルなソリューションを提供する。
LLMに基づく関連判断のための多基準フレームワークを提案し、関連性の概念を複数の基準に分解する。
以上の結果から,マルチクオリトリア判定はシステムランキング・リーダーボードの性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2025-07-13T04:21:21Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - iEBAKER: Improved Remote Sensing Image-Text Retrieval Framework via Eliminate Before Align and Keyword Explicit Reasoning [80.44805667907612]
iEBAKERは、弱い相関のサンプルペアをフィルタリングする革新的な戦略である。
SAR(Sort After Reversed Retrieval)戦略の代替として,SAR(Sort After Retrieval)戦略を導入する。
キーワード明示型推論(KER)モジュールを組み込んで、微妙なキー概念の区別による有益な影響を促進する。
論文 参考訳(メタデータ) (2025-04-08T03:40:19Z) - JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - Best in Tau@LLMJudge: Criteria-Based Relevance Evaluation with Llama3 [5.478764356647438]
そこで本稿では,大規模言語モデル (LLM) を付加する代替手法を提案する。
基準レベルのグレードを関連ラベルに集約する様々な方法を検討する。
2024年夏に発生した LLMJudge Challenge のデータをもとに,我々のアプローチを実証的に評価する。
論文 参考訳(メタデータ) (2024-10-17T21:37:08Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Towards Unifying the Label Space for Aspect- and Sentence-based
Sentiment Analysis [16.23682353651523]
DPL(Dual-granularity Pseudo Labeling)と呼ばれる新しいフレームワークを提案する。
DPLは、以前の作業を大幅に上回った標準ベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-03-14T13:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。