論文の概要: Sensivity of LLMs' Explanations to the Training Randomness:Context, Class & Task Dependencies
- arxiv url: http://arxiv.org/abs/2603.08241v1
- Date: Mon, 09 Mar 2026 11:14:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.825925
- Title: Sensivity of LLMs' Explanations to the Training Randomness:Context, Class & Task Dependencies
- Title(参考訳): LLMのトレーニングランダム性への説明の感度:文脈・クラス・タスク依存性
- Authors: Romain Loncour, Jérémie Bogaert, François-Xavier Standaert,
- Abstract要約: 本研究では,学習すべき文脈,学習すべきクラス,課題が,この説明の無作為性に対する感受性にどのように影響するかを検討する。
これらはいずれも統計的に有意な影響を示し、最小は(シンタクティック)コンテキスト、中間はクラス、最大はタスクである。
- 参考スコア(独自算出の注目度): 7.359709482735785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer models are now a cornerstone in natural language processing. Yet, explaining their decisions remains a challenge. It was shown recently that the same model trained on the same data with a different randomness can lead to very different explanations. In this paper, we investigate how the (syntactic) context, the classes to be learned and the tasks influence this explanations' sensitivity to randomness. We show that they all have statistically significant impact: smallest for the (syntactic) context, medium for the classes and largest for the tasks.
- Abstract(参考訳): トランスフォーマーモデルは現在、自然言語処理の基盤となっている。
しかし、彼らの決定を説明することは依然として困難である。
最近、異なるランダム性を持つ同じデータでトレーニングされた同じモデルが、非常に異なる説明につながることが示されている。
本稿では,学習対象の文脈,学習すべきクラス,課題が,この説明の無作為性に対する感受性にどのように影響するかを検討する。
これらはいずれも統計的に有意な影響を示し、最小は(シンタクティック)コンテキスト、中間はクラス、最大はタスクである。
関連論文リスト
- Counterfactual reasoning: an analysis of in-context emergence [57.118735341305786]
我々は、言語モデルが反実的推論が可能なことを示す。
自己注意、モデル深度、トレーニング済みデータの多様性によってパフォーマンスが向上することがわかった。
以上の結果から, SDE 動態下での反実的推論が可能となった。
論文 参考訳(メタデータ) (2025-06-05T16:02:07Z) - Explanation sensitivity to the randomness of large language models: the case of journalistic text classification [6.240875403446504]
本研究では,大規模言語モデルの学習におけるランダム要素の影響について,その予測可能性について検討する。
微調整のCamemBERTモデルと、関連性伝播に基づく説明手法を用いて、異なるランダムシードを用いたトレーニングは、類似の精度であるが可変的な説明を伴うモデルを生成する。
論文 参考訳(メタデータ) (2024-10-07T14:39:45Z) - Generalization to New Sequential Decision Making Tasks with In-Context
Learning [23.36106067650874]
少数のデモから新しいタスクを学習できる自律エージェントの訓練は、機械学習における長年の問題である。
本稿では,変換器を逐次決定問題に適用しても,新しいタスクの文脈内学習は不可能であることを示す。
我々は、異なる設計選択を調査し、より大きなモデルとデータセットサイズ、さらにタスクの多様性、環境、トラジェクトリのバーストネスが、新しいアウト・オブ・ディストリビューションタスクのコンテキスト内学習の改善をもたらすことを発見した。
論文 参考訳(メタデータ) (2023-12-06T15:19:28Z) - Leveraging sparse and shared feature activations for disentangled
representation learning [112.22699167017471]
本稿では,教師付きタスクの多種多様な集合から抽出した知識を活用し,共通不整合表現を学習することを提案する。
我々は6つの実世界分布シフトベンチマークと異なるデータモダリティに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-04-17T01:33:24Z) - Rough Randomness and its Application [0.0]
本研究の目的は、さまざまな粗いプロセスを捕捉し、関連するモデルを構築し、他の機械学習アルゴリズムの有効性を探ることである。
大心的推論と呼ばれる乱数関数のクラスは、これらに中心的な役割を果たす。
論文 参考訳(メタデータ) (2023-03-21T12:22:33Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Probing the Probing Paradigm: Does Probing Accuracy Entail Task
Relevance? [27.64235687067883]
モデルが訓練されたタスクに必要のないモデルでも,言語特性の符号化を学習できることが示される。
ランダムノイズとしてデータに分散しても,これらの特性を確率レベルよりかなり上まで符号化できることを示す。
論文 参考訳(メタデータ) (2020-05-02T06:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。