論文の概要: Generation of Programmatic Rules for Document Forgery Detection Using Large Language Models
- arxiv url: http://arxiv.org/abs/2512.19228v1
- Date: Mon, 22 Dec 2025 10:08:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.707052
- Title: Generation of Programmatic Rules for Document Forgery Detection Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた文書偽造検出のためのプログラムルールの生成
- Authors: Valentin Schmidberger, Manuel Eberhardinger, Setareh Maghsudi, Johannes Maucher,
- Abstract要約: 文書偽造は、法律、経済、政府のプロセスに対する脅威が増大している。
既存の可否チェックは、ソフトウェアエンジニアによって手作業で実装される。
大規模言語モデル(LLM)によるコード生成の最近の進歩は、これらのチェックの自動生成とスケーリングの新たな可能性を提供する。
- 参考スコア(独自算出の注目度): 10.32461766065764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Document forgery poses a growing threat to legal, economic, and governmental processes, requiring increasingly sophisticated verification mechanisms. One approach involves the use of plausibility checks, rule-based procedures that assess the correctness and internal consistency of data, to detect anomalies or signs of manipulation. Although these verification procedures are essential for ensuring data integrity, existing plausibility checks are manually implemented by software engineers, which is time-consuming. Recent advances in code generation with large language models (LLMs) offer new potential for automating and scaling the generation of these checks. However, adapting LLMs to the specific requirements of an unknown domain remains a significant challenge. This work investigates the extent to which LLMs, adapted on domain-specific code and data through different fine-tuning strategies, can generate rule-based plausibility checks for forgery detection on constrained hardware resources. We fine-tune open-source LLMs, Llama 3.1 8B and OpenCoder 8B, on structured datasets derived from real-world application scenarios and evaluate the generated plausibility checks on previously unseen forgery patterns. The results demonstrate that the models are capable of generating executable and effective verification procedures. This also highlights the potential of LLMs as scalable tools to support human decision-making in security-sensitive contexts where comprehensibility is required.
- Abstract(参考訳): 文書偽造は、法的、経済的、政府的なプロセスに対する脅威を増大させ、ますます高度な検証メカニズムを必要としている。
1つのアプローチは、データの正しさと内部の整合性を評価し、異常や操作の兆候を検出するためのルールベースの手順である、可視性チェックを使用することである。
これらの検証手順はデータの整合性を確保するのに不可欠であるが、既存の妥当性チェックはソフトウェアエンジニアによって手作業で実施され、時間を要する。
大規模言語モデル(LLM)によるコード生成の最近の進歩は、これらのチェックの自動生成とスケーリングの新たな可能性を提供する。
しかし、未知領域の特定の要求にLLMを適用することは依然として大きな課題である。
本研究では、ドメイン固有のコードと異なる微調整戦略を通じてデータに適応したLCMが、制約されたハードウェアリソースに対する偽検出のためのルールベースの可視性チェックを生成できる範囲について検討する。
LLM, Llama 3.1 8B と OpenCoder 8B を実世界のアプリケーションシナリオから派生した構造化データセット上で微調整し, 以前には見つからなかった偽造パターンの検証結果を評価する。
その結果、モデルが実行可能かつ効果的な検証手順を生成することができることを示した。
これはまた、可理解性が必要なセキュリティに敏感なコンテキストにおいて、人間の意思決定をサポートするスケーラブルなツールとしてのLLMの可能性を強調している。
関連論文リスト
- "Show Me You Comply... Without Showing Me Anything": Zero-Knowledge Software Auditing for AI-Enabled Systems [2.2981698355892686]
本稿では,新しいMLOps検証フレームワークであるZKMLOpsを紹介する。
ZKP(Zero-Knowledge Proofs)暗号プロトコルを運用し、証明者が証明者に対して、文が真実であることを納得させることができる。
我々は、金融リスク監査における規制コンプライアンスの研究を通じて、この枠組みの実践性を評価する。
論文 参考訳(メタデータ) (2025-10-30T15:03:32Z) - Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [78.1575956773948]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - Leveraging LLMs for Formal Software Requirements -- Challenges and Prospects [0.0]
VERIFAI1は、このギャップを埋めるための自動化および半自動化アプローチを調査することを目的としている。
本論文では, 課題の繰り返しと今後の研究方向性を明らかにするために, 関連文献の予備的な合成について述べる。
論文 参考訳(メタデータ) (2025-07-18T19:15:50Z) - Large Language Model-Driven Code Compliance Checking in Building Information Modeling [3.2648052741820166]
本研究では,ビルディングインフォメーション・モデリングにおける手動コードコンプライアンスチェックの時間的およびエラーの原因となる特性について考察する。
この重要なプロセスを半自動化するために、LLM(Large Language Model)駆動のアプローチを導入している。
開発システムは、GPT、Claude、Gemini、LlamaなどのLLMとRevitソフトウェアを統合し、ビルドコードを解釈し、Pythonスクリプトを生成し、半自動コンプライアンスチェックを実行する。
論文 参考訳(メタデータ) (2025-06-25T15:50:34Z) - Does Machine Unlearning Truly Remove Knowledge? [80.83986295685128]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - OpenFactCheck: Building, Benchmarking Customized Fact-Checking Systems and Evaluating the Factuality of Claims and LLMs [59.836774258359945]
OpenFactCheckは、カスタマイズされたファクトチェックシステムを構築するためのフレームワークである。
ユーザーは自動的にファクトチェッカーをカスタマイズし、文書やクレームの事実的正当性を検証できる。
CheckerEVALは、人間の注釈付きデータセットを使用して、自動ファクトチェッカーの検証結果の信頼性を高めるソリューションである。
論文 参考訳(メタデータ) (2024-05-09T07:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。