論文の概要: Capturing Opinion Shifts in Deliberative Discourse through Frequency-based Quantum deep learning methods
- arxiv url: http://arxiv.org/abs/2509.22603v1
- Date: Fri, 26 Sep 2025 17:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.613747
- Title: Capturing Opinion Shifts in Deliberative Discourse through Frequency-based Quantum deep learning methods
- Title(参考訳): 周波数に基づく量子深層学習による自由度談話における楽観的変化の捉え方
- Authors: Rakesh Thakur, Harsh Chaturvedi, Ruqayya Shah, Janvi Chauhan, Ayush Sharma,
- Abstract要約: 議論は、決定に達する前に様々な視点を測ることで成果を形作る上で重要な役割を担います。
近年の自然言語処理の進歩により、議論をコンピュータでモデル化することが可能になった。
本稿では,複数のNLP手法の比較分析を行い,モデルが会話を効果的に解釈する方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deliberation plays a crucial role in shaping outcomes by weighing diverse perspectives before reaching decisions. With recent advancements in Natural Language Processing, it has become possible to computationally model deliberation by analyzing opinion shifts and predicting potential outcomes under varying scenarios. In this study, we present a comparative analysis of multiple NLP techniques to evaluate how effectively models interpret deliberative discourse and produce meaningful insights. Opinions from individuals of varied backgrounds were collected to construct a self-sourced dataset that reflects diverse viewpoints. Deliberation was simulated using product presentations enriched with striking facts, which often prompted measurable shifts in audience opinions. We have given comparative analysis between two models namely Frequency-Based Discourse Modulation and Quantum-Deliberation Framework which outperform the existing state of art models. The findings highlight practical applications in public policy-making, debate evaluation, decision-support frameworks, and large-scale social media opinion mining.
- Abstract(参考訳): 議論は、決定に達する前に様々な視点を測ることで成果を形作る上で重要な役割を担います。
近年の自然言語処理の進歩により、意見の変化を分析し、様々なシナリオ下での潜在的な結果を予測することによって、議論を計算的にモデル化することが可能になった。
本研究では,複数のNLP手法の比較分析を行い,モデルが会話を効果的に解釈し,意味のある洞察を得られるかを評価する。
多様な背景を持つ個人からの意見を収集し,多様な視点を反映した自己ソースデータセットを構築した。
議論は印象的な事実を満載した製品プレゼンテーションを使ってシミュレートされた。
我々は、既存の技術モデルよりも優れた周波数ベースの談話変調と量子自由度フレームワークという2つのモデルの比較分析を行った。
この発見は、公共政策作成、議論評価、意思決定支援フレームワーク、大規模ソーシャルメディア意見マイニングにおける実践的応用を強調した。
関連論文リスト
- Towards Theoretical Understanding of Transformer Test-Time Computing: Investigation on In-Context Linear Regression [16.51420987738846]
言語モデル推論中により多くのテストタイム計算を使用することで、より中間的な考えを生成したり、複数の候補回答をサンプリングしたりするなど、効果的であることが証明された。
本稿では,実用的な言語モデル推論と理論的トランスフォーマー解析のギャップを埋める第一歩を踏み出す。
論文 参考訳(メタデータ) (2025-08-11T03:05:36Z) - From Thinking to Output: Chain-of-Thought and Text Generation Characteristics in Reasoning Language Models [10.38327947136263]
本稿では、4つの最先端大推論モデルの推論特性を解析するための新しい枠組みを提案する。
多様なデータセットは、論理的推論、因果推論、多段階問題解決を含む実世界のシナリオベースの質問で構成されている。
この研究結果は、これらのモデルがどのように探索と搾取のバランスをとり、問題に対処し、結論に達するかについて様々なパターンを明らかにする。
論文 参考訳(メタデータ) (2025-06-20T14:02:16Z) - Wait, that's not an option: LLMs Robustness with Incorrect Multiple-Choice Options [2.1184929769291294]
本研究は,LLMの命令追従能力と批判的推論とのバランスを評価するための新しいフレームワークを提案する。
トレーニング後のアライメントモデルでは,無効なオプションの選択がデフォルトとなることが多いが,ベースモデルでは,モデルサイズに合わせてスケールするリファリング機能が改善されている。
さらに、同様の指示追従バイアスを示す並列人間の研究を行い、これらのバイアスがアライメントに使用される人間のフィードバックデータセットを通してどのように伝播するかを示唆した。
論文 参考訳(メタデータ) (2024-08-27T19:27:43Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Reasoning Abilities of Large Language Models: In-Depth Analysis on the Abstraction and Reasoning Corpus [4.569421189811511]
大規模言語モデル(LLM)の推論と文脈理解能力を評価する新しい手法を提案する。
思考仮説言語(LoTH:Logical Coherence, compositionality, Productivity)の3つの重要なコンポーネントに注目します。
実験の結果,LSMは推論能力を示す一方で,これらの3つの側面において,人間レベルの推論に遅れが生じることが判明した。
論文 参考訳(メタデータ) (2024-03-18T13:50:50Z) - SAIE Framework: Support Alone Isn't Enough -- Advancing LLM Training
with Adversarial Remarks [47.609417223514605]
この研究は、学習者とパートナーモデルの間の支援的および敵対的な議論を促進するSAIEフレームワークを紹介している。
実験により,SAIEフレームワークで微調整したモデルでは,従来の微調整手法で訓練したモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-14T12:12:25Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。