論文の概要: LinGO: A Linguistic Graph Optimization Framework with LLMs for Interpreting Intents of Online Uncivil Discourse
- arxiv url: http://arxiv.org/abs/2602.04693v1
- Date: Wed, 04 Feb 2026 15:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.60809
- Title: LinGO: A Linguistic Graph Optimization Framework with LLMs for Interpreting Intents of Online Uncivil Discourse
- Title(参考訳): LinGO: オンラインアンシビル談話の内容を解釈するLLMを用いた言語グラフ最適化フレームワーク
- Authors: Yuan Zhang, Thales Bertaglia,
- Abstract要約: 大規模言語モデル(LLM)のための言語グラフ最適化フレームワークLinGOを紹介する。
言語を多段階言語コンポーネントに分解し、最もエラーの原因となるターゲットステップを特定し、ターゲットステップのプロンプトやサンプルコンポーネントを反復的に最適化する。
GPT-5-mini, Gemini 2.5 Flash-Lite, Claude 3 Haikuの3つのコスト効率 LLM と, TextGrad, AdalFlow, DSPy, Retrieval-Augmented Generation (RAG) の4つの最適化手法を用いたLinGOのベンチマークを行った。
- 参考スコア(独自算出の注目度): 4.663602574287565
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Detecting uncivil language is crucial for maintaining safe, inclusive, and democratic online spaces. Yet existing classifiers often misinterpret posts containing uncivil cues but expressing civil intents, leading to inflated estimates of harmful incivility online. We introduce LinGO, a linguistic graph optimization framework for large language models (LLMs) that leverages linguistic structures and optimization techniques to classify multi-class intents of incivility that use various direct and indirect expressions. LinGO decomposes language into multi-step linguistic components, identifies targeted steps that cause the most errors, and iteratively optimizes prompt and/or example components for targeted steps. We evaluate it using a dataset collected during the 2022 Brazilian presidential election, encompassing four forms of political incivility: Impoliteness (IMP), Hate Speech and Stereotyping (HSST), Physical Harm and Violent Political Rhetoric (PHAVPR), and Threats to Democratic Institutions and Values (THREAT). Each instance is annotated with six types of civil/uncivil intent. We benchmark LinGO using three cost-efficient LLMs: GPT-5-mini, Gemini 2.5 Flash-Lite, and Claude 3 Haiku, and four optimization techniques: TextGrad, AdalFlow, DSPy, and Retrieval-Augmented Generation (RAG). The results show that, across all models, LinGO consistently improves accuracy and weighted F1 compared with zero-shot, chain-of-thought, direct optimization, and fine-tuning baselines. RAG is the strongest optimization technique and, when paired with Gemini model, achieves the best overall performance. These findings demonstrate that incorporating multi-step linguistic components into LLM instructions and optimize targeted components can help the models explain complex semantic meanings, which can be extended to other complex semantic explanation tasks in the future.
- Abstract(参考訳): 安全で包括的で民主的なオンライン空間を維持するためには、非公用語の検出が不可欠である。
しかし、既存の分類者は、悪質な手がかりを含むポストを誤解することが多いが、市民の意図を表現しているため、オンラインで有害な悪質の見積もりが膨らんだ。
言語モデル(LLM)の言語グラフ最適化フレームワークであるLinGOを導入し,言語構造と最適化手法を用いて,様々な直接的・間接的表現を用いた複数の階層的インシビティを分類する。
LinGOは言語を多段階言語コンポーネントに分解し、最もエラーの原因となるターゲットステップを特定し、ターゲットステップのプロンプトやサンプルコンポーネントを反復的に最適化する。
我々は,2022年のブラジル大統領選挙で収集されたデータセットを用いて,Impoliteness (IMP), Hate Speech and Stereotyping (HSST), Physical Harm and Violent Political Rhetoric (PHAVPR), Threats to Democratic Institutions and Values (THREAT)の4種類の政治的市民性を評価した。
各インスタンスには6種類の公民権/公民権の意図が注釈付けされている。
GPT-5-mini, Gemini 2.5 Flash-Lite, Claude 3 Haikuの3つのコスト効率なLCMと, TextGrad, AdalFlow, DSPy, Retrieval-Augmented Generation (RAG) の4つの最適化手法を用いてLinGOをベンチマークした。
その結果、LinGOはゼロショット、チェーンオブ思考、直接最適化、微調整ベースラインと比較して、精度と重み付けF1を一貫して改善していることがわかった。
RAGは最強の最適化手法であり、Geminiモデルと組み合わせると全体的なパフォーマンスが最高のものとなる。
これらの結果から,LLM命令に多段階の言語的要素を組み込み,対象コンポーネントを最適化することで,モデルが複雑な意味の意味を説明するのに役立つことが示唆された。
関連論文リスト
- Language-Guided Grasp Detection with Coarse-to-Fine Learning for Robotic Manipulation [31.386822229629455]
本稿では,ロボット操作のための粗粒度学習パラダイムを用いた言語誘導グラフ検出(LGGD)を提案する。
この設計により、きめ細かいビジュアル・セマンティックなアライメントが可能となり、タスク命令に対する予測された把握の実現性が改善される。
OCID-VLGとGrasp-Anything++データセットの実験は、LGGDが既存の言語誘導の把握方法を上回ることを示している。
論文 参考訳(メタデータ) (2025-12-24T09:16:42Z) - Class Distillation with Mahalanobis Contrast: An Efficient Training Paradigm for Pragmatic Language Understanding Tasks [1.1060425537315088]
textbfClass textbfDistillation (ClaD)を提案する。
ClaDは2つの重要な革新を統合している: (i) クラス分布の構造的性質から得られる損失関数、(ii) クラス分離に最適化された解釈可能な決定アルゴリズム。
論文 参考訳(メタデータ) (2025-05-17T04:34:19Z) - VladVA: Discriminative Fine-tuning of LVLMs [67.14293827774827]
CLIPのような対照的に訓練された視覚言語モデル(VLM)は、識別的視覚言語表現学習の事実上のアプローチとなっている。
我々は,LVLMの識別的微調整のための新たな訓練手法である「両世界のベスト」を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:54:27Z) - Bridging the Language Gaps in Large Language Models with Inference-Time Cross-Lingual Intervention [71.12193680015622]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示している。
LLMは異なる言語間で大きな性能差を示す。
Inference-Time Cross-Lingual Intervention (INCLINE) を提案する。
論文 参考訳(メタデータ) (2024-10-16T11:23:03Z) - Leveraging Code to Improve In-context Learning for Semantic Parsing [48.66031267718704]
In-context Learning (ICL) は、その少数ショットの性質と一般化の改善により、意味解析に魅力的なアプローチである。
我々は,(1)DSLの代わりにPythonなどの汎用プログラミング言語を用いた意味解析におけるICLの有効性を向上し,(2)ドメイン記述を構造化したプロンプトを増強する。
論文 参考訳(メタデータ) (2023-11-16T02:50:06Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。