論文の概要: Iterative Graph Alignment
- arxiv url: http://arxiv.org/abs/2408.16667v1
- Date: Thu, 29 Aug 2024 16:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 13:02:54.718052
- Title: Iterative Graph Alignment
- Title(参考訳): 反復グラフアライメント
- Authors: Fangyuan Yu, Hardeep Singh Arora, Matt Johnson,
- Abstract要約: イテレーティブグラフアライメント(IGA)は、アノテーションのないルールベースのアライメントアルゴリズムである。
応答をこれらの参照と整合させることにより、局所的な知識ギャップを識別する。
評価の結果,Claude Sonnet 3.5では73.12%のアライメント改善,Llama3-8B-Instructでは86.20%の改善が得られた。
- 参考スコア(独自算出の注目度): 0.27309692684728604
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: By compressing diverse narratives, LLMs go beyond memorization, achieving intelligence by capturing generalizable causal relationships. However, they suffer from local 'representation gaps' due to insufficient training data diversity, limiting their real-world utility, especially in tasks requiring strict alignment to rules. Traditional alignment methods relying on heavy human annotations are inefficient and unscalable. Recent self-alignment techniques also fall short, as they often depend on self-selection based prompting and memorization-based learning. To address these issues, we introduce Iterative Graph Alignment (IGA), an annotation-free rule-based alignment algorithm. A teacher model (VLM) employs Iterative Graph Prompting (IGP) to create logical graphs and reference answers. The student model (LLM) identifies local knowledge gaps by attempting to align its responses with these references, collaborating with helper models to generate diverse answers. These aligned responses are then used for iterative supervised fine-tuning (SFT). Our evaluations across five rule-based scenarios demonstrate IGP's effectiveness, with a 73.12\% alignment improvement in Claude Sonnet 3.5, and Llama3-8B-Instruct achieving an 86.20\% improvement, outperforming Claude Sonnet 3.5 in rule-based alignment.
- Abstract(参考訳): 多様な物語を圧縮することにより、LLMは記憶を超越し、一般化可能な因果関係を捉えることで知性を達成する。
しかし、訓練データの多様性が不十分なため、特に規則に厳格に従わなければならないタスクにおいて、ローカルな「表現ギャップ」に悩まされる。
従来の人間のアノテーションに依存したアライメント手法は非効率でスケールできない。
最近の自己アライメント技術は、しばしば自己選択に基づくプロンプトと記憶に基づく学習に依存するため、不足している。
これらの問題に対処するために、アノテーションのないルールベースのアライメントアルゴリズムであるIGA(Iterative Graph Alignment)を導入する。
教師モデル(VLM)は、論理グラフと参照回答を作成するために反復グラフプロンプティング(IGP)を使用している。
学生モデル(LLM)は、これらの参照と応答を一致させようとし、ヘルパーモデルと協調して多様な回答を生成することで、局所的な知識ギャップを識別する。
これらのアライメントされた応答は、反復的教師付き微調整(SFT)に使用される。
5つのルールベースシナリオで評価した結果,Claude Sonnet 3.5 の 73.12 % のアライメント改善,Llama3-8B-Instruct の 86.20 % の改善,Claude Sonnet 3.5 のアライメント向上が達成された。
関連論文リスト
- Not Everything is All You Need: Toward Low-Redundant Optimization for Large Language Model Alignment [126.34547428473968]
大規模言語モデル(LLM)は、複雑なタスクやシナリオにおいて、人間の好みに合わせるのに依然として苦労しています。
我々は、最も有用な教師付き信号を用いて、最も関連性の高いニューロンを最適化することに焦点を当てた、textbfALLOという低輝度アライメント手法を提案する。
10個のデータセットに対する実験結果から、ALLOの有効性が示された。
論文 参考訳(メタデータ) (2024-06-18T13:34:40Z) - Can Language Models Explain Their Own Classification Behavior? [1.8177391253202122]
大規模言語モデル(LLM)は、無数のタスクでうまく機能するが、このパフォーマンスの背後にあるプロセスを説明することは困難である。
本稿では,LLMが内部プロセスの忠実な高レベルな説明を行えるかどうかを考察する。
私たちはデータセットであるArticulateRulesをリリースし、コンテキスト内または微調整によってトレーニングされたLLMの自己説明をテストするために使用します。
論文 参考訳(メタデータ) (2024-05-13T02:31:08Z) - LocalGCL: Local-aware Contrastive Learning for Graphs [17.04219759259025]
グラフ表現学習者として、アンダーラインローカル認識アンダーライングラフアンダーライン比較アンダーラインラーニング(textbfmethnametrim)を提案する。
実験は、最先端の手法に対するミートネームの優位性を検証し、包括的なグラフ表現学習者としての可能性を実証した。
論文 参考訳(メタデータ) (2024-02-27T09:23:54Z) - GRACE: Discriminator-Guided Chain-of-Thought Reasoning [75.35436025709049]
本稿では, 正しい推論手順を導出するために, GRACE (CorrectnEss Discriminator) を用いたチェーン・オブ・シークレット・リAsoningを提案する。
GRACEは、正しいステップと間違ったステップに対して対照的な損失で訓練された判別器を採用しており、復号時に次のステップ候補を採点するために使用される。
論文 参考訳(メタデータ) (2023-05-24T09:16:51Z) - To Copy Rather Than Memorize: A Vertical Learning Paradigm for Knowledge
Graph Completion [35.05965140700747]
我々は、より正確な予測のために、埋め込みモデルを拡張し、関連する事実のトリプルからターゲット情報を明示的にコピーできるようにする。
また、より効率的な最適化のための新しい相対距離ベース負サンプリング手法(ReD)を提案する。
論文 参考訳(メタデータ) (2023-05-23T14:53:20Z) - How does Contrastive Learning Organize Images? [8.077578967149561]
コントラスト学習(Contrastive Learning)は、同じ入力の増大と異なる入力の相違の表現において類似性を強調している。
近年の研究はこの直接的な関係に挑戦し、帰納的バイアスの重要な役割を浮き彫りにしている。
この差を捉えるために、RLD(Relative Local Density)メトリクスを導入します。
論文 参考訳(メタデータ) (2023-05-17T14:10:54Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [103.6153593636399]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z) - Contrastive Graph Few-Shot Learning [67.01464711379187]
グラフマイニングタスクのためのコントラストグラフFew-shot Learningフレームワーク(CGFL)を提案する。
CGFLは、データ表現を自己管理的に学習し、分散シフトの影響を緩和し、より良い一般化を行う。
総合的な実験により、CGFLはいくつかのグラフマイニングタスクにおいて最先端のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2022-09-30T20:40:23Z) - Convolutional Fine-Grained Classification with Self-Supervised Target
Relation Regularization [34.8793946023412]
本稿では,動的ターゲット関係グラフ(DTRG)を新たに導入する。
クラスレベルの特徴中心のオンライン計算は、表現空間におけるカテゴリ間距離を生成するように設計されている。
提案したターゲットグラフは,表現学習におけるデータの分散性と不均衡を緩和する。
論文 参考訳(メタデータ) (2022-08-03T11:51:53Z) - PRBoost: Prompt-Based Rule Discovery and Boosting for Interactive
Weakly-Supervised Learning [57.66155242473784]
弱教師付き学習(WSL)は,多くのNLPタスクにおいてラベル不足に対処する上で有望な結果を示した。
提案モデルであるPRBoostは、反復的なプロンプトベースのルール発見とモデル強化によってこの目標を達成する。
4つのタスクの実験では、PRBoostは最先端のWSLベースラインを7.1%まで上回っている。
論文 参考訳(メタデータ) (2022-03-18T04:23:20Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。