論文の概要: Quantum-Inspired Fine-Tuning for Few-Shot AIGC Detection via Phase-Structured Reparameterization
- arxiv url: http://arxiv.org/abs/2603.02281v1
- Date: Mon, 02 Mar 2026 02:16:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.496751
- Title: Quantum-Inspired Fine-Tuning for Few-Shot AIGC Detection via Phase-Structured Reparameterization
- Title(参考訳): 位相構造再パラメータ化によるFew-Shot AIGC検出のための量子インスピレーションされた微細チューニング
- Authors: Kaiyang Xing, Han Fang, Zhaoyun Chen, Zhonghui Li, Yang Yang, Weiming Zhang, Guoping Guo,
- Abstract要約: 近年の研究では、量子ニューラルネットワーク(QNN)が数発のレシエーションでよく一般化されていることが示されている。
本稿では、軽量QNNをローランク適応(LoRA)アダプタに組み込む量子強化微細チューニング方式であるQ-LoRAを提案する。
数ショットのAIGC検出実験では、Q-LoRAとH-LoRAの両方が標準のLoRAを5%以上の精度で上回った。
- 参考スコア(独自算出の注目度): 31.45327451864982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies show that quantum neural networks (QNNs) generalize well in few-shot regimes. To extend this advantage to large-scale tasks, we propose Q-LoRA, a quantum-enhanced fine-tuning scheme that integrates lightweight QNNs into the low-rank adaptation (LoRA) adapter. Applied to AI-generated content (AIGC) detection, Q-LoRA consistently outperforms standard LoRA under few-shot settings. We analyze the source of this improvement and identify two possible structural inductive biases from QNNs: (i) phase-aware representations, which encode richer information across orthogonal amplitude-phase components, and (ii) norm-constrained transformations, which stabilize optimization via inherent orthogonality. However, Q-LoRA incurs non-trivial overhead due to quantum simulation. Motivated by our analysis, we further introduce H-LoRA, a fully classical variant that applies the Hilbert transform within the LoRA adapter to retain similar phase structure and constraints. Experiments on few-shot AIGC detection show that both Q-LoRA and H-LoRA outperform standard LoRA by over 5% accuracy, with H-LoRA achieving comparable accuracy at significantly lower cost in this task.
- Abstract(参考訳): 近年の研究では、量子ニューラルネットワーク(QNN)が数発のレシエーションでよく一般化されていることが示されている。
この利点を大規模タスクに拡張するために、軽量QNNをローランク適応(LoRA)アダプタに統合する量子強化微細チューニングスキームQ-LoRAを提案する。
AI生成コンテンツ(AIGC)検出に適用されるQ-LoRAは、数ショット設定で標準のLoRAを一貫して上回る。
この改善の源を解析し、QNNから考えられる2つの構造的帰納バイアスを同定する。
一 直交振幅位相成分にまたがるより豊かな情報を符号化した位相認識表現及び
(ii)ノルム制約変換は、固有の直交性によって最適化を安定化させる。
しかし、Q-LoRAは量子シミュレーションによって非自明なオーバーヘッドを引き起こす。
解析によって動機づけられたH-LoRAは、同様の位相構造と制約を保持するために、LoRAアダプタ内にヒルベルト変換を適用する、完全に古典的な変種である。
数発のAIGC検出実験では、Q-LoRAとH-LoRAの両方が標準のLoRAを5%以上上回り、H-LoRAはこのタスクにおいて大幅に低コストで同等の精度を達成している。
関連論文リスト
- Bayesian-LoRA: Probabilistic Low-Rank Adaptation of Large Language Models [5.653755499165773]
本稿では,Sparse Gaussian Processesにインスパイアされた確率的低ランク表現として,決定論的LoRA更新を再構成するBayesian-LoRAを紹介する。
約0.42Mの追加パラメータと$approx1.2timesのトレーニングコストを標準のLoRAと比較すると、Bayesian-LoRAは最大30Bまでのモデルのキャリブレーションを大幅に改善した。
論文 参考訳(メタデータ) (2026-01-28T19:54:31Z) - Continual Quantum Architecture Search with Tensor-Train Encoding: Theory and Applications to Signal Processing [68.35481158940401]
CL-QASは連続的な量子アーキテクチャ検索フレームワークである。
振幅のエンコードと変分量子回路の忘れを犠牲にすることの課題を緩和する。
制御可能なロバスト性表現性、サンプル効率の一般化、およびバレンプラトーを使わずに滑らかな収束を実現する。
論文 参考訳(メタデータ) (2026-01-10T02:36:03Z) - QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory [11.996286932948124]
長短期記憶(LSTM)モデルは、都市電気通信予測のような領域における逐次モデリングタスクの中心である。
我々はQKAN-LSTM(Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory)を提案する。
QKAN-LSTMは、Data Re-Uploading ActivationモジュールをLSTMのゲーティング構造に統合する。
論文 参考訳(メタデータ) (2025-12-04T18:03:23Z) - SEQR: Secure and Efficient QR-based LoRA Routing [53.52716967527183]
Low-Rank Adaptation (LoRA) は,大規模言語モデルのパラメータ効率向上のための標準手法となっている。
与えられた入力に対して適切なLoRAアダプタを効果的に選択することは依然として困難である。
厳密なルーティング保証を提供しながら効率を最大化するために設計された、教師なしのLoRAルーティングアルゴリズムであるSEQRを導入する。
論文 参考訳(メタデータ) (2025-09-22T17:59:38Z) - Quantum Reinforcement Learning-Guided Diffusion Model for Image Synthesis via Hybrid Quantum-Classical Generative Model Architectures [2.005299372367689]
本稿では,各段階でCFGを動的に調整するQRL(quantum reinforcement learning)コントローラを提案する。
コントローラは、ハイブリッド量子-古典的アクター-批判的アーキテクチャを採用する。
CIFAR-10の実験は、QRLポリシーが知覚品質を改善することを示した。
論文 参考訳(メタデータ) (2025-09-17T16:47:04Z) - CLoQ: Enhancing Fine-Tuning of Quantized LLMs via Calibrated LoRA Initialization [2.975939846457057]
低ランク適応 (LoRA) を用いた細調整型大規模言語モデル (LLM) は, 下流タスクにおいて極めて効率的なアプローチとなっている。
量子化LLMにLoRA技術を適用すると、量子化重みの表現精度が低下するため、ユニークな課題が生じる。
CLoQは、これらの課題を克服するために設計された、単純化された初期化戦略である。
論文 参考訳(メタデータ) (2025-01-30T16:48:15Z) - SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning [73.93639228235622]
基礎モデルによる継続的な学習は、シーケンシャルなタスクに取り組むための事前トレーニング中に得られた豊富な知識を活用するための有望なパラダイムとして現れてきた。
既存のプロンプトベースおよびローランク適応ベース(LoRAベース)メソッドでは、プロンプト/ローラプールの拡張や、以前のタスクのサンプルの保持がしばしば必要である。
クラスインクリメンタル学習のためのスケーラブルデカップリングLoRA(SD-LoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-22T20:00:41Z) - RILQ: Rank-Insensitive LoRA-based Quantization Error Compensation for Boosting 2-bit Large Language Model Accuracy [5.767260383077013]
低ランク適応(LoRA)がパラメータ効率のLLM微調整の主流となっている。
LoRAベースの量子化誤差補償(LQEC)は圧縮LDMの精度を回復するための強力なツールである。
RILQ(Rank-Insensitive LoRA-based Quantization Error Compensation)を提案する。
論文 参考訳(メタデータ) (2024-12-02T05:09:56Z) - Replay-Free Continual Low-Rank Adaptation with Dynamic Memory [62.85596937435928]
我々は、事前学習された視覚変換器(ViT)が、時間とともに新しい下流タスクを逐次微調整できる連続学習を再考する。
近年の研究では、CL技術とパラメータ効率の良い微調整の交差が強調されている。
DualLoRA (Dual Low-Rank Adaptation) と呼ばれる新しいPEFT-CL法を提案する。
論文 参考訳(メタデータ) (2024-11-01T14:28:39Z) - Randomized Asymmetric Chain of LoRA: The First Meaningful Theoretical Framework for Low-Rank Adaptation [58.288682735160585]
Low-Rank Adaptation (LoRA) は、ファインチューニングモデルの一般的なテクニックである。
LoRAは、フルパラメータの微調整と比較すると、しばしば実行されます。
本稿では,LoRA手法の適応率を厳密に分析するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-10T18:51:53Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。