論文の概要: LogicQA: Logical Anomaly Detection with Vision Language Model Generated Questions
- arxiv url: http://arxiv.org/abs/2503.20252v1
- Date: Wed, 26 Mar 2025 05:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:59.434954
- Title: LogicQA: Logical Anomaly Detection with Vision Language Model Generated Questions
- Title(参考訳): LogicQA:視覚言語モデルによる論理的異常検出
- Authors: Yejin Kwon, Daeun Moon, Youngje Oh, Hyunsoo Yoon,
- Abstract要約: 異常検出(AD)を強化するフレームワークであるLogicQAを紹介する。
LogicQAは自動生成された質問をチェックリストにコンパイルし、論理的制約の違反を特定するために応答を収集する。
我々は,AUROCが87.6%,F1-maxが87.0パーセント,異常が説明されるとともに,公開ベンチマークであるMVTec LOCO AD上でのSOTA(State-of-the-art) Logical ADのパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 4.63822109539229
- License:
- Abstract: Anomaly Detection (AD) focuses on detecting samples that differ from the standard pattern, making it a vital tool in process control. Logical anomalies may appear visually normal yet violate predefined constraints on object presence, arrangement, or quantity, depending on reasoning and explainability. We introduce LogicQA, a framework that enhances AD by providing industrial operators with explanations for logical anomalies. LogicQA compiles automatically generated questions into a checklist and collects responses to identify violations of logical constraints. LogicQA is training-free, annotation-free, and operates in a few-shot setting. We achieve state-of-the-art (SOTA) Logical AD performance on public benchmarks, MVTec LOCO AD, with an AUROC of 87.6 percent and an F1-max of 87.0 percent along with the explanations of anomalies. Also, our approach has shown outstanding performance on semiconductor SEM corporate data, further validating its effectiveness in industrial applications.
- Abstract(参考訳): 異常検出(AD)は、標準パターンとは異なるサンプルの検出に重点を置いており、プロセス制御において重要なツールである。
論理的異常は視覚的に正常に見えるが、推論や説明可能性に応じて、対象の存在、配置、あるいは量に関する事前定義された制約に違反する可能性がある。
本稿では,産業事業者に論理異常の説明を提供することにより,ADを向上させるフレームワークであるLogicQAを紹介する。
LogicQAは自動生成された質問をチェックリストにコンパイルし、論理的制約の違反を特定するために応答を収集する。
LogicQAはトレーニングなし、アノテーションなし、数ショット設定で動作する。
我々は,AUROCが87.6%,F1-maxが87.0パーセント,異常が説明されるとともに,公開ベンチマークであるMVTec LOCO AD上でのSOTA(State-of-the-art) Logical ADのパフォーマンスを達成した。
また,半導体SEMコーポレートデータに優れた性能を示し,産業応用におけるその有効性を検証した。
関連論文リスト
- LogicAD: Explainable Anomaly Detection via VLM-based Text Feature Extraction [4.959108380494595]
自動回帰マルチモーダル視覚言語モデル(AVLM)は、視覚的推論における異常なパフォーマンスのために、将来的な代替手段を提供する。
本研究では,AVLMを用いて論理的異常検出を行い,その課題に適していることを示す。
我々は、AUROCが86.4%、F1-maxが83.7%の公開ベンチマークであるMVTec LOCO ADにおいて、異常の説明とともにSOTA性能を達成する。
論文 参考訳(メタデータ) (2025-01-03T11:40:41Z) - Defining and Detecting the Defects of the Large Language Model-based Autonomous Agents [31.126001253902416]
本研究は,LLMエージェントの欠陥の同定と検出に焦点を当てた最初の研究である。
StackOverflowから6,854件の関連記事を収集し分析し、8種類のエージェント欠陥を定義しました。
以上の結果から,Agentableの総合精度は88.79%,リコール率は91.03%であった。
論文 参考訳(メタデータ) (2024-12-24T11:54:14Z) - MedLogic-AQA: Enhancing Medical Question Answering with Abstractive Models Focusing on Logical Structures [24.262037382512975]
本稿では、文脈と質問から抽出した一階述語論理(FOL)に基づく規則を利用して、よく理解された回答を生成する新しい抽象QAシステムMedLogic-AQAを提案する。
この論理的推論と抽象的 QA との独特の融合は、論理的に健全で、関連性があり、係り合う答えを生み出すために我々のシステムに等しい。
論文 参考訳(メタデータ) (2024-10-20T18:29:38Z) - LogicGame: Benchmarking Rule-Based Reasoning Abilities of Large Language Models [87.49676980090555]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示し、複雑な問題解決能力を示している。
LLMの包括的なルール理解、実行、計画能力を評価するために設計された新しいベンチマークであるLogicGameを紹介する。
論文 参考訳(メタデータ) (2024-08-28T13:16:41Z) - LogiCode: an LLM-Driven Framework for Logical Anomaly Detection [5.989778187635765]
LogiCodeは、大規模言語モデル(LLM)を利用して、産業環境における論理的異常を識別する新しいフレームワークである。
論理的推論にLLMを利用することで、LogiCodeはPythonコードを自動生成し、不正な量や欠落要素などの異常を特定できる。
論文 参考訳(メタデータ) (2024-06-07T07:01:06Z) - SAM-LAD: Segment Anything Model Meets Zero-Shot Logic Anomaly Detection [17.32019706857109]
視覚異常検出は、産業的欠陥検出や診断など、現実世界の応用において不可欠である。
我々は,任意のシーンにおける論理的異常検出のためのゼロショット・プラグイン・アンド・プレイフレームワークSAM-LADを提案する。
産業用データセットを含む様々なベンチマークを用いて,提案するSAM-LADを検証する。
論文 参考訳(メタデータ) (2024-06-02T06:08:26Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Tokenization Consistency Matters for Generative Models on Extractive NLP
Tasks [54.306234256074255]
生成モデルの訓練において一般的に無視されるトークン化の不整合の問題を特定する。
この問題は、入力と出力が無矛盾にトークン化されると、これらのタスクの抽出特性を損なう。
一貫性のあるトークン化では、ドメイン内のデータセットとドメイン外のデータセットの両方で、モデルのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-12-19T23:33:21Z) - Logically Consistent Loss for Visual Question Answering [66.83963844316561]
ニューラルネットワークに基づく視覚質問応答(VQA)の現在の進歩は、同じ分布(すなわち、d)の仮定による一貫性を保証することができない。
マルチタスク学習フレームワークにおける論理的一貫した損失を定式化することにより,この問題に対処するための新しいモデルに依存しない論理制約を提案する。
実験により、提案された損失公式とハイブリッドバッチの導入により、一貫性が向上し、性能が向上することを確認した。
論文 参考訳(メタデータ) (2020-11-19T20:31:05Z) - Conditional Self-Attention for Query-based Summarization [49.616774159367516]
条件依存モデリング用に設計されたニューラルネットワークモジュールであるテキスト条件自己アテンション(CSA)を提案する。
DebatepediaとHotpotQAベンチマークデータセットの実験は、CSAがバニラトランスフォーマーを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-18T02:22:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。