論文の概要: Soft Inductive Bias Approach via Explicit Reasoning Perspectives in Inappropriate Utterance Detection Using Large Language Models
- arxiv url: http://arxiv.org/abs/2512.08480v1
- Date: Tue, 09 Dec 2025 10:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.929448
- Title: Soft Inductive Bias Approach via Explicit Reasoning Perspectives in Inappropriate Utterance Detection Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた不適切な発話検出における明示的推論視点によるソフトインダクティブバイアスアプローチ
- Authors: Ju-Young Kim, Ji-Hong Park, Se-Yeon Lee, Sujin Park, Gun-Woo Kim,
- Abstract要約: 推論過程を導出するための推論視点を明確に定義する軟帰納的バイアスアプローチを提案する。
提案手法を用いて韓国の大言語モデルを微調整し,定量的な性能比較と質的評価を行う。
実験の結果,カナナ・1.5モデルの平均精度は846であり,標準教師付き学習よりも約3.89パーセント向上した。
- 参考スコア(独自算出の注目度): 7.271743970152478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent incidents in certain online games and communities, where anonymity is guaranteed, show that unchecked inappropriate remarks frequently escalate into verbal abuse and even criminal behavior, raising significant social concerns. Consequently, there is a growing need for research on techniques that can detect inappropriate utterances within conversational texts to help build a safer communication environment. Although large-scale language models trained on Korean corpora and chain-of-thought reasoning have recently gained attention, research applying these approaches to inappropriate utterance detection remains limited. In this study, we propose a soft inductive bias approach that explicitly defines reasoning perspectives to guide the inference process, thereby promoting rational decision-making and preventing errors that may arise during reasoning. We fine-tune a Korean large language model using the proposed method and conduct both quantitative performance comparisons and qualitative evaluations across different training strategies. Experimental results show that the Kanana-1.5 model achieves an average accuracy of 87.0046, improving by approximately 3.89 percent over standard supervised learning. These findings indicate that the proposed method goes beyond simple knowledge imitation by large language models and enables more precise and consistent judgments through constrained reasoning perspectives, demonstrating its effectiveness for inappropriate utterance detection.
- Abstract(参考訳): 匿名性が保証されている一部のオンラインゲームやコミュニティにおける最近の出来事は、不適切な発言がしばしば口頭での虐待や犯罪行為へとエスカレートし、社会的な懸念を生じさせていることを示している。
その結果,会話文中の不適切な発話を検知し,より安全なコミュニケーション環境を構築する技術の研究の必要性が高まっている。
近年,韓国語コーパスとチェーン・オブ・ソート推論に基づいて訓練された大規模言語モデルが注目されているが,これらの手法を不適切な発話検出に適用する研究は限られている。
本研究では,推論過程を導くための推論視点を明確に定義し,合理的な意思決定を促進し,推論中に発生する可能性のあるエラーを防ぐソフト誘導バイアス手法を提案する。
提案手法を用いて韓国の大言語モデルを微調整し、異なる訓練戦略における定量的性能比較と質的評価の両方を行う。
実験の結果,カナナ・1.5モデルの平均精度は87.0046であり,標準教師付き学習よりも約3.89パーセント向上した。
これらの結果から,提案手法は大規模言語モデルによる単純な知識模倣に留まらず,制約付き推論の観点からより正確で一貫した判断が可能であり,不適切な発話検出の有効性が示された。
関連論文リスト
- Selective Demonstration Retrieval for Improved Implicit Hate Speech Detection [4.438698005789677]
ヘイトスピーチ検出は、自然言語処理において重要な研究領域であり、オンラインコミュニティの安全確保に不可欠である。
明示的なヘイトスピーチとは異なり、暗黙の表現は文脈、文化的な微妙さ、隠れた偏見に依存することが多い。
大規模言語モデルは、しばしば有害な言語に対する感受性を高め、脆弱なグループへの参照を示し、誤分類につながる可能性がある。
モデル微調整を必要とせず,文脈内学習を利用した新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-16T13:43:23Z) - Reasoner Outperforms: Generative Stance Detection with Rationalization for Social Media [12.479554210753664]
本研究は、明確な解釈可能な有理性を含む姿勢予測を含む生成的アプローチを採用する。
姿勢検出に推論を組み込むことで、より小さなモデル(FlanT5)がGPT-3.5のゼロショット性能を上回ることが判明した。
論文 参考訳(メタデータ) (2024-12-13T16:34:39Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - How to Determine the Most Powerful Pre-trained Language Model without
Brute Force Fine-tuning? An Empirical Survey [23.757740341834126]
その結果,H-Scoreは効率性や効率性に優れることがわかった。
また、トレーニングの詳細、テキスト生成への適用性、今後の方向性に光を当てる特定の指標との整合性といった難しさについても概説する。
論文 参考訳(メタデータ) (2023-12-08T01:17:28Z) - UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [62.71847873326847]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - Contrastive Learning for Inference in Dialogue [56.20733835058695]
推論、特に帰納的プロセスから派生したものは、私たちの会話において重要な要素です。
近年の大規模言語モデルは推論タスクにおいて顕著な進歩を見せている。
しかし、インダクティブ推論における彼らのパフォーマンスは、すべての情報がコンテキストに存在するわけではないが、インダクティブ推論よりもはるかに遅れている。
論文 参考訳(メタデータ) (2023-10-19T04:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。