論文の概要: Can Large Language Models Resolve Semantic Discrepancy in Self-Destructive Subcultures? Evidence from Jirai Kei
- arxiv url: http://arxiv.org/abs/2601.05004v1
- Date: Thu, 08 Jan 2026 15:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.245034
- Title: Can Large Language Models Resolve Semantic Discrepancy in Self-Destructive Subcultures? Evidence from Jirai Kei
- Title(参考訳): 大規模言語モデルは自己破壊的サブカルチャーにおける意味的不一致を解消できるか?
- Authors: Peng Wang, Xilin Tao, Siyi Yao, Jiageng Wu, Yuntao Zou, Zhuotao Tian, Libo Qin, Dagang Li,
- Abstract要約: 自己破壊行動は複雑な心理的状態と関連付けられており、診断が困難である。
これらの行動は、その独特の表現のために、サブカルチャーグループ内での識別がさらに困難になる可能性がある。
- 参考スコア(独自算出の注目度): 24.321366614594908
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-destructive behaviors are linked to complex psychological states and can be challenging to diagnose. These behaviors may be even harder to identify within subcultural groups due to their unique expressions. As large language models (LLMs) are applied across various fields, some researchers have begun exploring their application for detecting self-destructive behaviors. Motivated by this, we investigate self-destructive behavior detection within subcultures using current LLM-based methods. However, these methods have two main challenges: (1) Knowledge Lag: Subcultural slang evolves rapidly, faster than LLMs' training cycles; and (2) Semantic Misalignment: it is challenging to grasp the specific and nuanced expressions unique to subcultures. To address these issues, we proposed Subcultural Alignment Solver (SAS), a multi-agent framework that incorporates automatic retrieval and subculture alignment, significantly enhancing the performance of LLMs in detecting self-destructive behavior. Our experimental results show that SAS outperforms the current advanced multi-agent framework OWL. Notably, it competes well with fine-tuned LLMs. We hope that SAS will advance the field of self-destructive behavior detection in subcultural contexts and serve as a valuable resource for future researchers.
- Abstract(参考訳): 自己破壊行動は複雑な心理的状態と関連付けられており、診断が困難である。
これらの行動は、その独特の表現のため、サブカルチャーグループ内での識別がさらに困難になる可能性がある。
大規模言語モデル(LLM)が様々な分野に適用されるにつれ、一部の研究者は自己破壊的行動を検出するための応用を探り始めた。
そこで我々は,現在のLCM法を用いて,サブカルチャー内における自己破壊的行動検出について検討した。
しかし,これらの手法には2つの課題がある:(1)ナレッジラグ: サブカルチャースラングは LLM のトレーニングサイクルよりも急速に進化し,(2) セマンティック・ミスサライメント: サブカルチャー特有の特定の表現やニュアンスド表現を理解することは困難である。
これらの課題に対処するため,我々は,自動検索とサブカルチャーアライメントを組み込んだマルチエージェントフレームワークであるサブカルチャーアライメントソルバー(SAS)を提案し,自己破壊行動の検出におけるLCMの性能を著しく向上させた。
実験の結果,SASは現在の高度なマルチエージェントフレームワークOWLよりも優れていた。
特に、微調整のLLMとよく競合する。
SASが、サブカルチャーの文脈における自己破壊的行動検出の分野を前進させ、将来の研究者にとって貴重な資源になることを願っている。
関連論文リスト
- Do Large Language Models Understand Morality Across Cultures? [0.5356944479760104]
本研究では,大規模言語モデルが道徳的視点における異文化間差異や類似性をどの程度捉えているかを検討する。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できないことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-28T20:25:36Z) - Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search [57.28671084993782]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な推論能力を示している。
近年の研究では、テスト時間計算の増加はLLMの推論能力を高めることが示されている。
そこで我々は,1)COAT推論形式を内部化するための小規模な形式調整段階,2)強化学習を活用した大規模自己改善段階を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:26:58Z) - Self-correction is Not An Innate Capability in Large Language Models [13.268938380591765]
道徳的自己補正はLLMの本質的な能力か?」という根本的な疑問に対処することで道徳的自己補正の基盤となるメカニズムを考察する。
道徳的自己補正は、道徳的に敏感でもなく、自己補正プロセス中に外部からのフィードバックを効果的に取り入れることができないため、LLMの本質的な能力ではないことを示す。
論文 参考訳(メタデータ) (2024-10-27T16:52:21Z) - Learning vs Retrieval: The Role of In-Context Examples in Regression with Large Language Models [18.983753573277596]
そこで本研究では,内部知識の獲得と学習を併用した,文脈内学習機構の評価フレームワークを提案する。
まず,LLMは実世界の回帰問題を解くことができ,LLMが内部知識を取得する程度を,文脈内から学習する程度に測定する実験を設計することができることを示す。
本稿では,これらのメカニズムが様々な要因によって引き起こされる度合いを詳細に分析する。
論文 参考訳(メタデータ) (2024-09-06T14:46:37Z) - Can large language models explore in-context? [87.49311128190143]
単純なマルチアームバンディット環境において,エージェントとして大規模言語モデルをデプロイする。
モデルが実質的な介入なしには、探索にしっかりと関わっていないことが分かっています。
論文 参考訳(メタデータ) (2024-03-22T17:50:43Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - AI Text-to-Behavior: A Study In Steerability [0.0]
大規模言語モデル(LLM)の操舵性に関する研究
我々は,OCEANと呼ばれる行動心理学の枠組みを用いて,モデルが調整されたプロンプトに対する応答性を定量的に測定した。
以上の結果から,GPTの汎用性と,ニュアンス命令の識別と適応能力が評価された。
論文 参考訳(メタデータ) (2023-08-07T18:14:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。