論文の概要: AI-Assisted Goal Setting Improves Goal Progress Through Social Accountability
- arxiv url: http://arxiv.org/abs/2603.17887v1
- Date: Wed, 18 Mar 2026 16:12:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.814739
- Title: AI-Assisted Goal Setting Improves Goal Progress Through Social Accountability
- Title(参考訳): AIによるゴール設定は、ソーシャルな説明責任を通じてゴールの進捗を改善する
- Authors: Michel Schimpf, Julian Voigt, Thomas Bohné,
- Abstract要約: キャリアコーチングはゴール品質と達成率を改善するが、コストと可用性の制限によりアクセスが制限される。
本稿では,AIキャリアコーチとコントロールグループを比較検討し,事前に登録した3本腕ランダム化制御試験を報告する。
AIはコントロールグループよりもはるかに高い目標達成を実現しました。
認識された説明責任は、ゴールの進行にAI-over-questionnaire効果を介する。
- 参考スコア(独自算出の注目度): 2.494285265205213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Helping people identify and pursue personally meaningful career goals at scale remains a key challenge in applied psychology. Career coaching can improve goal quality and attainment, but its cost and limited availability restrict access. Large language model (LLM)-based chatbots offer a scalable alternative, yet the psychological mechanisms by which they might support goal pursuit remain untested. Here we report a preregistered three-arm randomised controlled trial (N = 517) comparing an AI career coach ("Leon," powered by Claude Sonnet), a matched structured written questionnaire covering closely matched reflective topics, and a no-support control on goal progress at a two-week follow-up. The AI chatbot produced significantly higher goal progress than the control (d = 0.33, p = .016). Compared with the written-reflection condition, the AI did not significantly improve overall goal progress, but it increased perceived social accountability. In the preregistered mediation model, perceived accountability mediated the AI-over-questionnaire effect on goal progress (indirect effect = 0.15, 95% CI [0.04, 0.31]), whereas self-concordance did not. These findings suggest that AI-assisted goal setting can improve short-term goal progress, and that its clearest added value over structured self-reflection lies in increasing felt accountability.
- Abstract(参考訳): 個人にとって意味のあるキャリア目標を大規模に特定し、追求するのを助けることは、応用心理学における重要な課題である。
キャリアコーチングはゴール品質と達成率を改善するが、コストと可用性の制限によりアクセスが制限される。
大規模言語モデル(LLM)ベースのチャットボットはスケーラブルな代替手段を提供するが、目標追求を支援する心理的メカニズムは未検証のままである。
ここでは,AIのキャリアコーチ("Leon", クロード・ソネット)と比較した3本腕ランダム化制御試験(N = 517)と,密にマッチングされた反射的トピックを網羅した構造化された質問紙,そして2週間のフォローアップにおける目標進捗の支持制御について報告する。
AIチャットボットは、制御よりもはるかに高い目標(d = 0.33, p = .016)を達成した。
書き直し条件と比較して、AIは全体的な目標の進捗を著しく改善することはなかったが、社会的説明責任を増大させた。
事前登録された仲介モデルでは、AI-over-questionnaire効果がゴール進行(間接効果 = 0.15, 95% CI [0.04, 0.31])を介し、自己一致は得られなかった。
これらの結果から,AI支援目標設定は短期目標の進捗を向上し,構造化された自己回帰よりも明確な付加価値は,感傷的説明責任の向上に寄与することが示唆された。
関連論文リスト
- GRAIL: Goal Recognition Alignment through Imitation Learning [10.284830265068795]
本稿では,Imitation Learning (GRAIL)によるゴール認識アライメントを提案する。
GRAILは、(潜在的に最適でない)実証軌道から直接、各候補目標に対する1つの目標指向ポリシーを学習する。
F1スコアは、体系的にバイアスされた最適挙動の下で0.5以上増加し、準最適挙動下では0.1-0.3の利得を達成し、ノイズの多い最適軌道下では最大0.4の改善をもたらす。
論文 参考訳(メタデータ) (2026-02-15T17:45:03Z) - Conversation for Non-verifiable Learning: Self-Evolving LLMs through Meta-Evaluation [56.84819098277464]
CoNLは、マルチエージェントのセルフプレイを通じて生成、評価、メタ評価を統合するフレームワークである。
CoNLは、安定したトレーニングを維持しながら、自己回帰ベースラインよりも一貫した改善を実現している。
論文 参考訳(メタデータ) (2026-01-29T09:41:14Z) - Agent0-VL: Exploring Self-Evolving Agent for Tool-Integrated Vision-Language Reasoning [52.99434388759101]
ツール統合推論による継続的改善を実現する自己進化型視覚言語エージェントを提案する。
Agent0-VLは、ツールの使用法を推論だけでなく、自己評価や自己修復にも取り入れている。
実験の結果,Agent0-VLはベースモデルよりも12.5%向上していることがわかった。
論文 参考訳(メタデータ) (2025-11-25T04:15:14Z) - Technical Report: Evaluating Goal Drift in Language Model Agents [0.05567007955507388]
本稿では,言語モデル(LM)におけるゴールドリフトの分析手法を提案する。
我々の実験では、エージェントはまずシステムプロンプトを通じて明示的に目標を与えられ、その後環境圧力によって競合する目標に晒される。
目標ドリフトは、コンテキスト長が大きくなるにつれてパターンマッチング行動に対するモデルの感受性が増大するのと相関する。
論文 参考訳(メタデータ) (2025-05-05T15:06:09Z) - Towards Measuring Goal-Directedness in AI Systems [0.0]
意図しない目標を追求するAIシステムにとって重要な前提条件は、一貫性のあるゴール指向の方法で振る舞うかどうかである。
そこで本稿では,多くの報酬関数に準最適であるかどうかをモデル化する政策の目的指向性の定義を新たに提案する。
私たちの貢献は、AIシステムが危険な目標を追求できるかどうかという問題にアプローチするために、シンプルで計算が容易なゴール指向性の定義です。
論文 参考訳(メタデータ) (2024-10-07T01:34:42Z) - HIQL: Offline Goal-Conditioned RL with Latent States as Actions [81.67963770528753]
オフラインデータからゴール条件付きRLの階層的アルゴリズムを提案する。
この階層的な分解によって、推定値関数のノイズに頑健になることを示す。
提案手法は,従来の手法を巧みに操り,高次元画像観察にスケールできるとともに,アクションフリーなデータを容易に利用することができる。
論文 参考訳(メタデータ) (2023-07-22T00:17:36Z) - NOPA: Neurally-guided Online Probabilistic Assistance for Building
Socially Intelligent Home Assistants [79.27554831580309]
われわれは、家庭内の人々を支援するために、社会的にインテリジェントなロボットを構築する方法を研究する。
ロボットは人間の目標を同時に推測しなければならない。
論文 参考訳(メタデータ) (2023-01-12T18:59:34Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。