論文の概要: Abstract, Align, Predict: Zero-Shot Stance Detection via Cognitive Inductive Reasoning
- arxiv url: http://arxiv.org/abs/2506.13470v1
- Date: Mon, 16 Jun 2025 13:28:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.500805
- Title: Abstract, Align, Predict: Zero-Shot Stance Detection via Cognitive Inductive Reasoning
- Title(参考訳): 抽象的, 直感的, 予測:認知的帰納的推論によるゼロショットスタンス検出
- Authors: Jun Ma, Fuqiang Niu, Dong Li, Jinzhou Cao, Genan Dai, Bowen Zhang,
- Abstract要約: ゼロショットスタンス検出(ZSSD)は、これまで見えなかったターゲットに対するテキストのスタンスを特定することを目的としている。
人間の認知的推論にインスパイアされた認知誘導推論フレームワーク(CIRF)を提案する。
SemEval-2016、VAST、COVID-19-Stanceベンチマークの実験は、CIRFが新たな最先端の結果を確立していることを示している。
- 参考スコア(独自算出の注目度): 6.709126599208497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot stance detection (ZSSD) aims to identify the stance of text toward previously unseen targets, a setting where conventional supervised models often fail due to reliance on labeled data and shallow lexical cues. Inspired by human cognitive reasoning, we propose the Cognitive Inductive Reasoning Framework (CIRF), which abstracts transferable reasoning schemas from unlabeled text and encodes them as concept-level logic. To integrate these schemas with input arguments, we introduce a Schema-Enhanced Graph Kernel Model (SEGKM) that dynamically aligns local and global reasoning structures. Experiments on SemEval-2016, VAST, and COVID-19-Stance benchmarks show that CIRF establishes new state-of-the-art results, outperforming strong ZSSD baselines by 1.0, 4.5, and 3.3 percentage points in macro-F1, respectively, and achieving comparable accuracy with 70\% fewer labeled examples. We will release the full code upon publication.
- Abstract(参考訳): ゼロショットスタンス検出(ZSSD)は、従来の教師付きモデルはラベル付きデータと浅い語彙的手がかりに依存するため、しばしば失敗する設定である。
人間の認知的推論にインスパイアされた認知帰納的推論フレームワーク(CIRF)を提案する。
これらのスキーマを入力引数と統合するために、ローカルおよびグローバルな推論構造を動的に整列するスキーマ拡張グラフカーネルモデル(SEGKM)を導入する。
SemEval-2016、VAST、COVID-19-Stanceベンチマークの実験では、CIRFが新しい最先端の結果を確立し、それぞれのマクロF1のZSSDベースラインを1.0、4.5、3.3%で上回り、ラベル付きサンプルの70%の精度で同等の精度で達成している。
公開時に全コードを公開します。
関連論文リスト
- Fast-Slow Thinking for Large Vision-Language Model Reasoning [22.084891053164686]
質問特徴に基づく推論深度を適応するフレームワークである textbfFAST を提案する。
FASTは、ベースモデルと比較して10%以上改善され、最先端の精度が達成される。
論文 参考訳(メタデータ) (2025-04-25T16:11:23Z) - SEAL: Steerable Reasoning Calibration of Large Language Models for Free [58.190800043449336]
大規模言語モデル(LLM)は、拡張チェーン・オブ・ソート(CoT)推論機構を通じて複雑な推論タスクに魅力的な機能を示した。
最近の研究では、CoT推論トレースにかなりの冗長性が示されており、これはモデル性能に悪影響を及ぼす。
我々は,CoTプロセスをシームレスに校正し,高い効率性を示しながら精度を向上する,トレーニング不要なアプローチであるSEALを紹介した。
論文 参考訳(メタデータ) (2025-04-07T02:42:07Z) - A NotSo Simple Way to Beat Simple Bench [0.0]
本稿では,大規模言語モデル(LLM)における推論能力向上のための新しい枠組みを提案する。
モデル精度とロバスト性を改善するために,グローバルな整合性チェックと組み合わせたマルチステッププロンプト戦略を提案する。
クロードは論理的整合性を維持するのに優れ, GPT-4oは探索的創造性を示すが, 曖昧なプロンプトに苦しむ。
論文 参考訳(メタデータ) (2024-12-12T16:04:31Z) - Text-Guided Attention is All You Need for Zero-Shot Robustness in Vision-Language Models [64.67721492968941]
ゼロショットロバストネス(TGA-ZSR)のためのテキストガイド型アテンションを提案する。
我々のゴールは、CLIPモデルの一般化を維持し、敵の堅牢性を高めることである。
本手法は,現在の最先端技術よりも9.58%の精度でゼロショット精度を向上する。
論文 参考訳(メタデータ) (2024-10-29T07:15:09Z) - EDDA: A Encoder-Decoder Data Augmentation Framework for Zero-Shot Stance Detection [23.38633461323637]
スタンス検出は、与えられたターゲットに対してテキストで表現された姿勢を決定することを目的としている。
ZSSDの最近のデータ拡張技術は、ターゲット間の伝達可能な知識を増加させる。
本稿では,エンコーダとデコーダのデータ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-23T04:29:29Z) - RDR: the Recap, Deliberate, and Respond Method for Enhanced Language
Understanding [6.738409533239947]
Recap、Deliberate、Respond(RDR)パラダイムは、ニューラルネットワークパイプラインに3つの異なる目的を組み込むことで、この問題に対処する。
これら3つのモデルをカスケードすることにより、ベンチマークをゲームする可能性を軽減し、基盤となるセマンティックパターンをキャプチャする堅牢な方法を確立する。
その結果,標準基準値の最大2%向上とともに,競争基準値と比較して性能が向上した。
論文 参考訳(メタデータ) (2023-12-15T16:41:48Z) - News Summarization and Evaluation in the Era of GPT-3 [73.48220043216087]
GPT-3は,大規模な要約データセット上で訓練された微調整モデルと比較する。
我々は,GPT-3サマリーが圧倒的に好まれるだけでなく,タスク記述のみを用いることで,現実性に乏しいようなデータセット固有の問題に悩まされることも示している。
論文 参考訳(メタデータ) (2022-09-26T01:04:52Z) - Semantics-Guided Contrastive Network for Zero-Shot Object detection [67.61512036994458]
ゼロショット物体検出(ZSD)はコンピュータビジョンにおける新しい課題である。
ゼロショット検出の領域にコントラスト学習機構をもたらすフレームワークであるContrastZSDを開発した。
本手法は,ZSDタスクと一般化ZSDタスクの両方において,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2021-09-04T03:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。