論文の概要: What's the Difference? Supporting Users in Identifying the Effects of Prompt and Model Changes Through Token Patterns
- arxiv url: http://arxiv.org/abs/2504.15815v1
- Date: Tue, 22 Apr 2025 11:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 20:40:40.001374
- Title: What's the Difference? Supporting Users in Identifying the Effects of Prompt and Model Changes Through Token Patterns
- Title(参考訳): 違いは何か? : トークンパターンによるプロンプトとモデル変化の効果の特定を支援する
- Authors: Michael A. Hedderich, Anyi Wang, Raoyuan Zhao, Florian Eichin, Barbara Plank,
- Abstract要約: Spotlightは、自動化と人間の分析を組み合わせた新しいアプローチだ。
データマイニング技術に基づいて、ランダムな(復号化)バリエーションと言語モデル出力の体系的な違いを自動的に区別する。
トークンパターンのアプローチは,言語モデル出力の体系的差異を理解する上で有効であることを示す。
- 参考スコア(独自算出の注目度): 23.505782809734512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt engineering for large language models is challenging, as even small prompt perturbations or model changes can significantly impact the generated output texts. Existing evaluation methods, either automated metrics or human evaluation, have limitations, such as providing limited insights or being labor-intensive. We propose Spotlight, a new approach that combines both automation and human analysis. Based on data mining techniques, we automatically distinguish between random (decoding) variations and systematic differences in language model outputs. This process provides token patterns that describe the systematic differences and guide the user in manually analyzing the effects of their prompt and model changes efficiently. We create three benchmarks to quantitatively test the reliability of token pattern extraction methods and demonstrate that our approach provides new insights into established prompt data. From a human-centric perspective, through demonstration studies and a user study, we show that our token pattern approach helps users understand the systematic differences of language model outputs, and we are able to discover relevant differences caused by prompt and model changes (e.g. related to gender or culture), thus supporting the prompt engineering process and human-centric model behavior research.
- Abstract(参考訳): 大規模な言語モデルのプロンプトエンジニアリングは、小さな急激な摂動やモデルの変更でさえ、生成された出力テキストに大きな影響を及ぼす可能性があるため、難しい。
既存の評価手法(自動メトリクスまたは人的評価)には、限られた洞察の提供や労働集約といった制限がある。
自動化と人的分析を組み合わせた新しいアプローチであるSpotlightを提案する。
データマイニング技術に基づいて、ランダムな(復号化)バリエーションと言語モデル出力の体系的な違いを自動で区別する。
このプロセスは、システマティックな違いを記述したトークンパターンを提供し、ユーザが手動でプロンプトとモデルの変更の効果を効率的に分析できるようにする。
トークンパターン抽出手法の信頼性を定量的に検証するベンチマークを3つ作成し,提案手法が確立したプロンプトデータに対する新たな洞察を提供することを示す。
人中心的な視点から、実証研究とユーザスタディを通じて、私たちのトークンパターンアプローチは、言語モデル出力の体系的な違いを理解するのに役立ち、即興的およびモデル変化(例えば、性別や文化に関連するもの)によって引き起こされる関連する相違を見出すことができ、即発的なエンジニアリングプロセスと人間中心のモデル行動研究を支援することができることを示す。
関連論文リスト
- The Geometry of Prompting: Unveiling Distinct Mechanisms of Task Adaptation in Language Models [40.128112851978116]
本研究では,異なるプロンプト法が言語モデルにおける表現の幾何学に与える影響について検討する。
本分析では,文脈内学習における入力分布サンプルとラベル意味論の重要性を強調した。
我々の研究は、大規模言語モデルの理論的理解に寄与し、より効果的で表現を意識した促進戦略の開発の基礎となる。
論文 参考訳(メタデータ) (2025-02-11T23:09:50Z) - LLMTemporalComparator: A Tool for Analysing Differences in Temporal Adaptations of Large Language Models [17.021220773165016]
本研究では、異なる期間のデータに基づいて訓練された大規模言語モデル(LLM)における時間的不一致を分析することの課題に対処する。
本稿では,ユーザ定義クエリに基づく2つのLLMバージョンの出力を体系的に比較するシステムを提案する。
論文 参考訳(メタデータ) (2024-10-05T15:17:07Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Explaining Relation Classification Models with Semantic Extents [1.7604348079019634]
説明責任の欠如は、多くの現実世界のアプリケーションで現在複雑になっている要素である。
関係分類タスクにおける決定パターンを解析する概念である意味範囲を導入する。
我々は、人やモデルの意味範囲を決定するためのアノテーションツールとソフトウェアフレームワークを提供する。
論文 参考訳(メタデータ) (2023-08-04T08:17:52Z) - Interpretable Differencing of Machine Learning Models [20.99877540751412]
2つのMLモデルの出力の相似性関数の予測の1つとしてモデル差分問題の定式化を行う。
ジョイントサロゲートツリー(JST)は、この2つのモデルのための2つの連結された決定木サロゲートから構成される。
JSTは違いを直感的に表現し、モデル決定ロジックのコンテキストに変化を配置します。
論文 参考訳(メタデータ) (2023-06-10T16:15:55Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Empowering Language Understanding with Counterfactual Reasoning [141.48592718583245]
本稿では,反現実的思考を模倣した反現実的推論モデルを提案する。
特に,各実例に対して代表的対実サンプルを生成する生成モジュールを考案し,その対実サンプルと実例サンプルを比較してモデル予測を振り返るレトロスペクティブモジュールを考案した。
論文 参考訳(メタデータ) (2021-06-06T06:36:52Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。