論文の概要: Complexity Results of Persuasion
- arxiv url: http://arxiv.org/abs/2507.05951v1
- Date: Tue, 08 Jul 2025 12:49:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.053853
- Title: Complexity Results of Persuasion
- Title(参考訳): 説得の複雑さ
- Authors: Alban Grastien,
- Abstract要約: 我々は、説得がNP完全問題であることを証明する。
我々は、説得がNP完全問題であることを証明する。
我々は、説得がNP完全問題であることを証明する。
- 参考スコア(独自算出の注目度): 2.61072980439312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We prove that persuasion is an NP-complete problem.
- Abstract(参考訳): 我々は、説得がNP完全問題であることを証明する。
関連論文リスト
- A Fine-Grained Complexity View on Propositional Abduction -- Algorithms and Lower Bounds [6.6362553223890535]
我々は、見過ごされているように見えるが自然なパラメータ n の下で、難解な誘引問題の複雑さを分析する。
SigmaP$ と NP- および coNP-完全 フラグメントに対していくつかの正の値が得られる。
我々はこれを低い境界で補い、多くのフラグメントは(強い)指数時間仮説の下で改善を除外する。
論文 参考訳(メタデータ) (2025-05-15T11:56:19Z) - Large Language Models Are More Persuasive Than Incentivized Human Persuaders [32.72764895955829]
我々は,フロンティア大言語モデル(LLM)の説得能力と,オンラインクイズ設定におけるインセンティブ付き人間説得者との比較を行った。
LLMの説得者は、インセンティブを得た人間の説得者よりも、方向性の説得の試みへのコンプライアンスを著しく向上させた。
以上の結果から、AIの説得能力は、パフォーマンスに結びついたリアルタイムボーナスを持つ人間の能力を上回ることが示唆された。
論文 参考訳(メタデータ) (2025-05-14T14:31:33Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - Empowering LLMs with Logical Reasoning: A Comprehensive Survey [49.91445266392609]
大規模言語モデル(LLM)は様々なタスクにおいて顕著な成功を収めた。
近年の研究では、LLMの論理的推論能力にはまだ大きな課題があることがわかった。
論文 参考訳(メタデータ) (2025-02-21T18:20:35Z) - Advancing Algorithmic Approaches to Probabilistic Argumentation under the Constellation Approach [0.0]
完全拡張である引数の集合の確率を計算する複雑なタスクのアルゴリズムを開発する。
実験的評価は我々のアプローチの可能性を示唆している。
論文 参考訳(メタデータ) (2024-07-06T12:08:38Z) - Large Language Model for Science: A Study on P vs. NP [88.67249044141529]
大規模言語モデル(LLM)を用いて,P対NP問題の研究を促進・促進する。
具体的には、複雑な問題解決のためのLLMを用いた奥行き思考を促進する一般的なフレームワークであるソクラティック推論を提案する。
我々のP対NP問題に関するパイロット研究は、GPT-4が証明スキーマの生成に成功し、97の対話ターンを通して厳密な推論を行うことを示した。
論文 参考訳(メタデータ) (2023-09-11T17:49:27Z) - Towards Understanding Chain-of-Thought Prompting: An Empirical Study of
What Matters [82.84696222087396]
CoT(Chain-of-Thought)の促進により,大規模言語モデル(LLM)の多段階推論能力が劇的に向上する
無効な実演でもCoT推論が可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T05:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。