論文の概要: Using Contrastive Learning to Improve Two-Way Reasoning in Large Language Models: The Obfuscation Task as a Case Study
- arxiv url: http://arxiv.org/abs/2509.05553v1
- Date: Sat, 06 Sep 2025 00:44:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.577665
- Title: Using Contrastive Learning to Improve Two-Way Reasoning in Large Language Models: The Obfuscation Task as a Case Study
- Title(参考訳): コントラスト学習による大規模言語モデルにおける双方向推論の改善--難読化課題を事例として
- Authors: Serge Lionel Nikiema, Jordan Samhi, Micheline Bénédicte Moumoula, Albérick Euraste Djiré, Abdoul Kader Kaboré, Jacques Klein, Tegawendé F. Bissyandé,
- Abstract要約: この研究は、大きな言語モデルが概念を本当に理解しているか、単にパターンを認識するのかという、AIの根本的な問題に対処する。
著者らは、逆方向を明示的に訓練することなく、両方向の変換を適用できる双方向推論を提案する。
実験の結果、CFTは双方向の推論に成功し、前方タスク能力を維持しながら強いリバースパフォーマンスを実現した。
- 参考スコア(独自算出の注目度): 10.4691578575499
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This research addresses a fundamental question in AI: whether large language models truly understand concepts or simply recognize patterns. The authors propose bidirectional reasoning,the ability to apply transformations in both directions without being explicitly trained on the reverse direction, as a test for genuine understanding. They argue that true comprehension should naturally allow reversibility. For example, a model that can change a variable name like userIndex to i should also be able to infer that i represents a user index without reverse training. The researchers tested current language models and discovered what they term cognitive specialization: when models are fine-tuned on forward tasks, their performance on those tasks improves, but their ability to reason bidirectionally becomes significantly worse. To address this issue, they developed Contrastive Fine-Tuning (CFT), which trains models using three types of examples: positive examples that maintain semantic meaning, negative examples with different semantics, and forward-direction obfuscation examples. This approach aims to develop deeper understanding rather than surface-level pattern recognition and allows reverse capabilities to develop naturally without explicit reverse training. Their experiments demonstrated that CFT successfully achieved bidirectional reasoning, enabling strong reverse performance while maintaining forward task capabilities. The authors conclude that bidirectional reasoning serves both as a theoretical framework for assessing genuine understanding and as a practical training approach for developing more capable AI systems.
- Abstract(参考訳): この研究は、大きな言語モデルが概念を本当に理解しているか、単にパターンを認識するのかという、AIの根本的な問題に対処する。
著者らは、真に理解するためのテストとして、逆方向を明示的に訓練することなく、両方向の変換を適用する能力である双方向推論を提案する。
真の理解は自然に可逆性を許容するべきだ、と彼らは主張する。
例えば、userIndexのような変数名をiに変更できるモデルでは、逆トレーニングなしでiがユーザインデックスを表すことを推測できるはずだ。
研究チームは現在の言語モデルをテストし、認知特殊化(cognitive specialization)と呼ばれるものを発見した。モデルが前方タスクで微調整された場合、それらのタスクのパフォーマンスは向上するが、双方向に推論する能力は著しく悪化する。
この問題に対処するため、彼らはContrastive Fine-Tuning (CFT)を開発した。これは3つのタイプの例を使ってモデルをトレーニングする。
このアプローチは、表面レベルのパターン認識よりも深い理解を深めることを目的としており、逆の能力が明示的な逆トレーニングなしで自然に発達することを可能にしている。
彼らの実験は、CFTが双方向推論を成功させ、フォワードタスク能力を維持しながら、強いリバースパフォーマンスを実現することを実証した。
著者らは、双方向推論は真の理解を評価する理論的枠組みと、より有能なAIシステムを開発するための実践的な訓練手法の両方を兼ね備えていると結論付けている。
関連論文リスト
- Implicit Reasoning in Transformers is Reasoning through Shortcuts [10.351525484558376]
テストタイム計算は、言語モデルの複雑な多段階推論機能を強化するための新しいパラダイムとして登場しつつある。
マルチステップタスクにおいて,言語モデルがどのように暗黙的推論を行うかを検討する。
論文 参考訳(メタデータ) (2025-03-10T17:58:31Z) - Cognitive Behaviors that Enable Self-Improving Reasoners, or, Four Habits of Highly Effective STaRs [28.565225092457897]
強化学習は、検証可能なタスクにおける言語モデルにおける自己改善を促進することができる。
また,Qwen-2.5-3BがLlama-3.2-3Bを超えることが確認された。
我々の研究は、Qwenが自然にこれらの推論行動を示すのに対して、Llamaはこれらを欠いていることを明らかにしている。
論文 参考訳(メタデータ) (2025-03-03T08:46:22Z) - Bidirectional Awareness Induction in Autoregressive Seq2Seq Models [47.82947878753809]
双方向認識誘導(BAI)は、ネットワーク内の要素のサブセットであるPivotsを利用して、自己回帰的制約を破ることなく双方向学習を行う訓練手法である。
特に,イメージキャプションでは2.4CIDEr,ニューラルマシン翻訳では4.96BLEU,テキスト要約では1.16ROUGEの増加が確認された。
論文 参考訳(メタデータ) (2024-08-25T23:46:35Z) - Mitigating Reversal Curse in Large Language Models via Semantic-aware Permutation Training [57.771940716189114]
我々は、大きな言語モデル(LLM)が「逆の呪い」に苦しむことを示す。
逆の呪いの根本原因は、訓練と推論の段階で異なる単語順にある。
この問題に対処するために,SPT(Semantic-Aware Permutation Training)を提案する。
論文 参考訳(メタデータ) (2024-03-01T18:55:20Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。