論文の概要: When AI Gives Advice: Evaluating AI and Human Responses to Online Advice-Seeking for Well-Being
- arxiv url: http://arxiv.org/abs/2512.08937v1
- Date: Fri, 24 Oct 2025 18:02:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.40827
- Title: When AI Gives Advice: Evaluating AI and Human Responses to Online Advice-Seeking for Well-Being
- Title(参考訳): AIがアドバイスを与えるとき - 健康のためのオンラインアドバイザ検索に対するAIとヒューマンレスポンスの評価
- Authors: Harsh Kumar, Jasmine Chahal, Yinuo Zhao, Zeling Zhang, Annika Wei, Louis Tay, Ashton Anderson,
- Abstract要約: 大言語モデル(LLM)によって生成されたアドバイスと、トップボイドのRedditアドバイスを比較します。
その結果, GPT-4o が sycophancy 以外のすべての指標で GPT-5 を上回っていることが判明した。
第2の研究では、人間とアルゴリズムのアドバイスを組み合わせる方法について検討し、AI生成されたコメントと競合するために、人間のアドバイスを控えめに磨き上げることができることを示した。
我々は、AI、クラウドインプット、専門家の監視をブレンドしたアドバイス・グルーピング・エージェントとエコシステムの設計上の意味を結論付けます。
- 参考スコア(独自算出の注目度): 10.871464218794593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Seeking advice is a core human behavior that the Internet has reinvented twice: first through forums and Q\&A communities that crowdsource public guidance, and now through large language models (LLMs) that deliver private, on-demand counsel at scale. Yet the quality of this synthesized LLM advice remains unclear. How does it compare, not only against arbitrary human comments, but against the wisdom of the online crowd? We conducted two studies (N = 210) in which experts compared top-voted Reddit advice with LLM-generated advice. LLMs ranked significantly higher overall and on effectiveness, warmth, and willingness to seek advice again. GPT-4o beat GPT-5 on all metrics except sycophancy, suggesting that benchmark gains need not improve advice-giving. In our second study, we examined how human and algorithmic advice could be combined, and found that human advice can be unobtrusively polished to compete with AI-generated comments. Finally, to surface user expectations, we ran an exploratory survey with undergraduates (N=148) that revealed heterogeneous, persona-dependent preferences for agent qualities (e.g., coach-like: goal-focused structure; friend-like: warmth and humor). We conclude with design implications for advice-giving agents and ecosystems blending AI, crowd input, and expert oversight.
- Abstract(参考訳): アドバイスを探すことは、インターネットが2度再発明した中核的な人間の行動だ。まずは、公開ガイダンスをクラウドソースするフォーラムやQ\&Aコミュニティを通じて、そして今度は大規模でオンデマンドのカウンセリングを提供する大規模言語モデル(LLM)を通して。
しかし、この合成LDMアドバイスの品質は未だ不明である。
人的コメントだけでなく、オンラインの大衆の知恵にも、どのように比較できるのだろうか?
研究は2つの研究 (N = 210) を行い、専門家はトップボイドRedditアドバイスとLSM生成アドバイスを比較した。
LLMは、全体的な、有効性、温かさ、そして再びアドバイスを求める意志において、かなり高いランクを付けた。
GPT-4oは、薬効以外のすべての指標でGPT-5を破り、ベンチマークゲインはアドバイスを向上する必要はないことを示唆している。
第2の研究では、人間とアルゴリズムのアドバイスがどのように組み合わせられるかを調べ、AIが生成したコメントと競合するために、人間のアドバイスが目立たないほど洗練されていることを発見した。
最後に, ユーザの期待に応えるために, エージェント品質(コーチライク, ゴール中心構造, 友人ライク, 温かさ, ユーモアなど)に対して, 異質でペルソナ依存的な嗜好を呈する大学生(N=148)を対象に, 探索調査を行った。
我々は、AI、クラウドインプット、専門家の監視をブレンドしたアドバイス・グルーピング・エージェントとエコシステムの設計上の意味を結論付けます。
関連論文リスト
- REMOR: Automated Peer Review Generation with LLM Reasoning and Multi-Objective Reinforcement Learning [0.0]
我々は,多目的強化学習(REMOR)を用いた推論LLMが,限界を克服できるかを評価する。
REMORは、人間のレビューの平均的な報酬の2倍以上の報酬、非最先端のエージェント的マルチモーダルAIレビューシステムを達成する。
論文 参考訳(メタデータ) (2025-05-16T22:00:49Z) - Direct Advantage Regression: Aligning LLMs with Online AI Reward [59.78549819431632]
オンラインAIフィードバック(OAIF)は、人間からの強化学習(RLHF)に代わる有望な代替手段を提供する
我々は,重み付き教師付き微調整による政策改善を最適化するダイレクトアドバンテージ・レグレッション(DAR)を提案する。
我々の経験的結果は、AI報酬はAIの好みとは対照的に、より高度な人間とAIの合意を一貫して達成するAI監督のより良い形態であることを示している。
論文 参考訳(メタデータ) (2025-04-19T04:44:32Z) - Thinking LLMs: General Instruction Following with Thought Generation [56.30755438254918]
本稿では,人体データの追加を使わずに,そのような思考能力を持つ既存LLMの訓練方法を提案する。
各命令に対して、思考候補は判断モデルを用いて応答のみを評価し、好みの最適化によって最適化される。
この手法がAlpacaEvalやArena-Hardに優れたパフォーマンスをもたらすことを示すとともに,マーケティング,健康,一般知識といった非合理的なカテゴリーの考え方から得られる利益を示す。
論文 参考訳(メタデータ) (2024-10-14T15:38:56Z) - The Future of Open Human Feedback [65.2188596695235]
私たちは学際的な専門家を集めて、AIのための人間のフィードバックのオープンなエコシステムを実現するための機会と課題を評価します。
私たちはまず、ピアプロダクション、オープンソース、市民科学コミュニティで成功したプラクティスを探します。
最終的には、持続可能なオープンな人間のフィードバックエコシステムを支えるために必要なコンポーネントを想定します。
論文 参考訳(メタデータ) (2024-08-15T17:59:14Z) - Aligning Large Language Models from Self-Reference AI Feedback with one General Principle [61.105703857868775]
13B Llama2-Chatで高品質なフィードバックを提供できる自己参照型AIフィードバックフレームワークを提案する。
具体的には、まずAIがユーザーの指示に反応し、それに基づいて他の回答に対する批判を参照として生成する。
最後に、批判に応じて、どの回答が人間の好みに合うかを判断する。
論文 参考訳(メタデータ) (2024-06-17T03:51:46Z) - Right, No Matter Why: AI Fact-checking and AI Authority in
Health-related Inquiry Settings [6.479999334029941]
健康関連文の真偽を評価する際に,ユーザのAI対応行動の評価を行う。
AIはステートメントが偽/真であると信じている”というだけに制限されたフィードバックでさえ、半数以上の人がステートメントアセスメントをAIの提案に移行していることがわかったのです。
論文 参考訳(メタデータ) (2023-10-22T16:59:31Z) - Preference Ranking Optimization for Human Alignment [90.6952059194946]
大規模言語モデル(LLM)は、しばしば誤解を招くコンテンツを含み、それらを人間の価値と整合させる必要性を強調している。
人間のフィードバックからの強化学習(RLHF)が、このアライメントを達成するために採用されている。
我々は、人間のアライメントのための微調整LDMのための効率的なSFTアルゴリズムとして、優先度ランク付け最適化(PRO)を提案する。
論文 参考訳(メタデータ) (2023-06-30T09:07:37Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Should I Follow AI-based Advice? Measuring Appropriate Reliance in
Human-AI Decision-Making [0.0]
私たちは、人間がAIアドバイスを盲目的に頼らず、その品質を区別し、より良い意思決定を行うために行動できるようにすることを目標としています。
現在の研究では、ケースバイケースベースでAIアドバイスに対する適切な信頼(AR)の基準が欠如している。
我々は、ARをアドバイス品質を識別し、それに応じて振る舞う能力を測定する2次元構成体として見ることを提案する。
論文 参考訳(メタデータ) (2022-04-14T12:18:51Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。