論文の概要: CARLoS: Retrieval via Concise Assessment Representation of LoRAs at Scale
- arxiv url: http://arxiv.org/abs/2512.08826v1
- Date: Tue, 09 Dec 2025 17:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.062802
- Title: CARLoS: Retrieval via Concise Assessment Representation of LoRAs at Scale
- Title(参考訳): CARLoS: スケールでのLORAの簡潔な評価表現による検索
- Authors: Shahar Sarfaty, Adi Haviv, Uri Hacohen, Niva Elkin-Koren, Roi Livni, Amit H. Bermano,
- Abstract要約: メタデータを追加することなくLoRAを特徴付ける大規模フレームワークであるCARLoSを提案する。
我々は650以上のLORAを分析し、様々なプロンプトや種を画像生成に利用し、それらの行動を評価する信頼性の高い方法である。
これらの表現を用いて、テキストクエリと関連するLoRAを意味的にマッチングする効率的な検索フレームワークを開発する。
- 参考スコア(独自算出の注目度): 20.501290424573778
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid proliferation of generative components, such as LoRAs, has created a vast but unstructured ecosystem. Existing discovery methods depend on unreliable user descriptions or biased popularity metrics, hindering usability. We present CARLoS, a large-scale framework for characterizing LoRAs without requiring additional metadata. Analyzing over 650 LoRAs, we employ them in image generation over a variety of prompts and seeds, as a credible way to assess their behavior. Using CLIP embeddings and their difference to a base-model generation, we concisely define a three-part representation: Directions, defining semantic shift; Strength, quantifying the significance of the effect; and Consistency, quantifying how stable the effect is. Using these representations, we develop an efficient retrieval framework that semantically matches textual queries to relevant LoRAs while filtering overly strong or unstable ones, outperforming textual baselines in automated and human evaluations. While retrieval is our primary focus, the same representation also supports analyses linking Strength and Consistency to legal notions of substantiality and volition, key considerations in copyright, positioning CARLoS as a practical system with broader relevance for LoRA analysis.
- Abstract(参考訳): LoRAのような生成成分の急速な増殖は、巨大だが非構造的な生態系を生み出した。
既存の発見方法は信頼できないユーザ記述や偏りのある人気指標に依存しており、ユーザビリティを損なう。
メタデータを追加することなくLoRAを特徴付ける大規模フレームワークであるCARLoSを提案する。
650個以上のLORAを分析し、さまざまなプロンプトや種を画像生成に利用して、それらの行動を評価する。
CLIP埋め込みとベースモデル生成との差を利用して、3つの部分の表現を簡潔に定義する: 方向、意味的シフトの定義、効果の重要性の定量化、一貫性、効果の安定性の定量化。
これらの表現を用いて,テキストクエリと関連するLoRAをセマンティックにマッチングし,過度に強いあるいは不安定なクエリをフィルタリングし,自動評価や人的評価においてテキストベースラインを上回り,効率的な検索フレームワークを開発する。
検索が第一の焦点である一方で、同じ表現は、強度と一貫性を、重大性とボリションの法的概念と結び付ける分析、著作権に関する重要な考察をサポートし、CARLoSをロラ分析により大きな関連性を持つ実用的なシステムとして位置づけている。
関連論文リスト
- Grounding Long-Context Reasoning with Contextual Normalization for Retrieval-Augmented Generation [57.97548022208733]
キー値抽出における表面的選択が精度と安定性のシフトを引き起こすことを示す。
生成前の文脈表現を適応的に標準化する戦略であるコンテキスト正規化を導入する。
論文 参考訳(メタデータ) (2025-10-15T06:28:25Z) - Behind the Scenes: Mechanistic Interpretability of LoRA-adapted Whisper for Speech Emotion Recognition [5.343939245180883]
Low-Rank Adaptation (LoRA) はパラメータ効率の高い微調整法として人気がある。
音声感情認識のためのWhisperエンコーダにおけるLoRAの体系的機械論的解釈可能性の研究を行った。
以上の結果から,LoRAがエンコーダの階層性を再評価し,経験的洞察と深い機械的理解の両立を図った。
論文 参考訳(メタデータ) (2025-09-10T09:54:27Z) - Towards Evaluting Fake Reasoning Bias in Language Models [47.482898076525494]
論理に欠陥がある場合でも、モデルが推論の表面構造を好むことを示す。
我々は、Fake Reasoning Bias(FRB)を体系的に調査するベンチマークTheATERを紹介する。
我々は、主観的DPOと実データの両方で17の高度な大言語モデル(LRM)を評価する。
論文 参考訳(メタデータ) (2025-07-18T09:06:10Z) - Position: Pause Recycling LoRAs and Prioritize Mechanisms to Uncover Limits and Effectiveness [6.3575026653686315]
ローランクアダプタ(LoRA)のマージやルーティングは,大規模言語モデルの拡張手段として人気がある。
本稿は,新たなマージアルゴリズムやルーティングアルゴリズムの開発から,LoRAの再利用が本当に効果的である条件の理解へと,研究コミュニティの焦点を移すことを主張する。
論文 参考訳(メタデータ) (2025-06-16T13:35:22Z) - RoleRAG: Enhancing LLM Role-Playing via Graph Guided Retrieval [6.636092764694501]
RoleRAGは、知識インデックス作成のための効率的なエンティティの曖昧さを、構造化知識グラフからコンテキスト的に適切な情報を抽出する境界対応検索器と統合した検索ベースのフレームワークである。
ロールプレイングベンチマークの実験により、RoleRAGの校正された検索は、汎用LLMとロール固有LLMの両方がキャラクタ知識との整合性を向上し、幻覚応答の低減に役立つことが示された。
論文 参考訳(メタデータ) (2025-05-24T06:11:17Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Task-Specific Directions: Definition, Exploration, and Utilization in Parameter Efficient Fine-Tuning [65.31677646659895]
大規模な言語モデルは、下流タスクで素晴らしいパフォーマンスを示すが、全てのパラメータを完全に微調整する場合は、リソース消費がかなり必要である。
本稿では,タスク固有の方向(TSD)を明確に定義するフレームワークを提案し,その特性と実用化の課題について検討する。
次に、微調整過程におけるTLDの影響を最大化する新しいアプローチであるLoRA-Dashを導入する。
論文 参考訳(メタデータ) (2024-09-02T08:10:51Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Iterative Utility Judgment Framework via LLMs Inspired by Relevance in Philosophy [66.95501113584541]
ITEM(Iterative utiliTy judgm fraEntMework)を提案する。
RAGの3つの中核的構成要素は、検索モデル、ユーティリティ判断、回答生成から導かれる関連性ランキングであり、シューツの哲学的関連性体系と一致している。
実効性判定, ランキング, 回答生成におけるITEMの顕著な改善が, 代表ベースラインに基づいて示された。
論文 参考訳(メタデータ) (2024-06-17T07:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。