論文の概要: Can One-sided Arguments Lead to Response Change in Large Language Models?
- arxiv url: http://arxiv.org/abs/2602.06260v1
- Date: Thu, 05 Feb 2026 23:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.15701
- Title: Can One-sided Arguments Lead to Response Change in Large Language Models?
- Title(参考訳): 片側議論は大規模言語モデルの応答変化につながるか?
- Authors: Pedro Cisneros-Velarde,
- Abstract要約: 大規模言語モデル(LLM)は、バランスの取れた回答を提供することができるが、一方向の視点を取るか、答えを拒否する。
このような初期応答が、単純で直感的な方法で特定の視点に操れるかどうかを考察する。
他の議論への切り替えは、意見ステアリングを一貫して減少させる。
- 参考スコア(独自算出の注目度): 5.91402820967386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Polemic questions need more than one viewpoint to express a balanced answer. Large Language Models (LLMs) can provide a balanced answer, but also take a single aligned viewpoint or refuse to answer. In this paper, we study if such initial responses can be steered to a specific viewpoint in a simple and intuitive way: by only providing one-sided arguments supporting the viewpoint. Our systematic study has three dimensions: (i) which stance is induced in the LLM response, (ii) how the polemic question is formulated, (iii) how the arguments are shown. We construct a small dataset and remarkably find that opinion steering occurs across (i)-(iii) for diverse models, number of arguments, and topics. Switching to other arguments consistently decreases opinion steering.
- Abstract(参考訳): ポリレミックな質問は、バランスの取れた答えを表現するために複数の視点を必要とします。
大規模言語モデル(LLM)は、バランスの取れた回答を提供することができるが、一方向の視点を取るか、答えを拒否する。
本稿では,そのような初期応答が,その視点を支持する一方的な引数のみを提供することによって,単純で直感的な方法で特定の視点に操れるかどうかを考察する。
私たちの体系的な研究には3つの次元があります。
i) LLM応答においてどの姿勢が誘導されるか。
(ii) ポーラティックな質問がどう定式化されるか
(三)議論の方法
私たちは小さなデータセットを構築し、意見ステアリングがあちこちで発生していることに顕著に気づきます。
(i)-
(iii) 多様なモデル、議論の数、話題について。
他の議論への切り替えは、意見ステアリングを一貫して減少させる。
関連論文リスト
- More Bias, Less Bias: BiasPrompting for Enhanced Multiple-Choice Question Answering [53.09478307383865]
大規模言語モデル(LLM)のための新しい推論フレームワークであるBiasPromptingを紹介する。
最終的な予測に到達する前に、LCMにすべての妥当な答えオプションの推論を生成し、批判的に評価するように誘導する。
広く使われている5つの質問応答ベンチマークにおいて、大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-11-25T09:01:08Z) - MixReasoning: Switching Modes to Think [79.70845484191543]
推論モデルは、ステップバイステップで問題に取り組むことでパフォーマンスを向上させる。
あらゆるステップに拡張推論を適用することは、かなりの冗長性をもたらす。
一つの応答内で推論の深さを動的に調整するフレームワークであるMixReasoningを提案する。
論文 参考訳(メタデータ) (2025-10-07T15:46:34Z) - Can LLMs Judge Debates? Evaluating Non-Linear Reasoning via Argumentation Theory Semantics [24.173784986846687]
我々はCAT(Computational Argumentation Theory)からLarge Language Models (LLMs) を推定できるかどうかを評価する。
我々はQuADセマンティクスを用いて、攻撃とサポートの関係に基づいて、アクセプティビリティスコアを引数に割り当てる。
論文 参考訳(メタデータ) (2025-09-19T08:10:32Z) - Echoes of Agreement: Argument Driven Opinion Shifts in Large Language Models [0.36713387874278247]
政治偏見評価実験を,支持論と反感論の存在下で実施する。
実験により, 与えられた議論の方向に対するモデル応答が, 実質的に変化していることが示唆された。
これらの効果は、LLMが提示された議論と整合する姿勢に適応する際の空想傾向を示している。
論文 参考訳(メタデータ) (2025-08-11T20:54:14Z) - Empowering LLMs with Logical Reasoning: A Comprehensive Survey [49.91445266392609]
大規模言語モデル(LLM)は様々なタスクにおいて顕著な成功を収めた。
近年の研究では、LLMの論理的推論能力にはまだ大きな課題があることがわかった。
論文 参考訳(メタデータ) (2025-02-21T18:20:35Z) - Brainstorming Brings Power to Large Language Models of Knowledge Reasoning [17.14501985068287]
大規模言語モデル(LLM)は、言語生成、テキスト理解、知識推論において驚くべき能力を示した。
近年の研究では、多モデルコラボレーションの導入により、幅広いタスクにおけるモデルの推論能力が向上している。
本稿では,インプットに基づくマルチモデルブレインストーミングを提案する。ブレインストーミングのためのグループに,複数の推論と再推論のラウンドを組み込んだ結果,コンセンサスな回答が得られた。
論文 参考訳(メタデータ) (2024-06-02T14:47:14Z) - Distilling Reasoning Ability from Large Language Models with Adaptive Thinking [54.047761094420174]
思考の微調整(cot-finetuning)の連鎖は、小さな言語モデル(SLM)を特定のタスクに対するパフォーマンス向上の推論能力で実現することを目的としている。
既存のコトファインタニング法の多くは事前に考えられたメカニズムを採用しており、SLMは答えを出す前に理性を生成することができる。
このメカニズムにより、SLMは複雑な質問を分析して考えることができるが、答えの正しさは論理的に小さな誤りに非常に敏感になる。
理性よりも先に回答を生成するための頑健な後思考機構を提案する。
論文 参考訳(メタデータ) (2024-04-14T07:19:27Z) - WorldSense: A Synthetic Benchmark for Grounded Reasoning in Large
Language Models [35.088946378980914]
我々は3つの最先端チャットLLM(GPT3.5、GPT4、Llama2-chat)上でベンチマークを実行する。
これらのモデルが3つのオブジェクトでもエラーを発生させることを示す。
エラーは、チェーン・オブ・コンテクストのプロンプトやイン・コンテクストの学習でも継続する。
論文 参考訳(メタデータ) (2023-11-27T15:38:17Z) - A review and analysis of six extended Wigner's friend arguments [0.0]
ウィグナーの友人は、エージェントを量子システムとして記述することの難しさを説明するために実験を行った。
すべての議論は、どの観測者にもアクセスできない測定結果間の相関関係に関する仮定に基づいて成り立っていることを示す。
これらの仮定のいくつかは完全に動機づけられているわけではないが、全ての議論は量子論の性質に光を当てている。
論文 参考訳(メタデータ) (2023-08-30T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。