論文の概要: ChOiRe: Characterizing and Predicting Human Opinions with Chain of
Opinion Reasoning
- arxiv url: http://arxiv.org/abs/2311.08385v2
- Date: Wed, 15 Nov 2023 16:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 12:40:21.819530
- Title: ChOiRe: Characterizing and Predicting Human Opinions with Chain of
Opinion Reasoning
- Title(参考訳): 合唱団:意見の連鎖による人間の意見の特徴づけと予測
- Authors: Xuan Long Do, Kenji Kawaguchi, Min-Yen Kan, Nancy F. Chen
- Abstract要約: ChOiReは、人間の意見を予測するための4段階のソリューションフレームワークである。
ユーザの明示的なペルソナと、ユーザの歴史的な意見から推測される暗黙的なペルソナを区別する。
ChOiReは、限られた推論呼び出しで、最先端の新たな有効性を実現する。
- 参考スコア(独自算出の注目度): 74.75098542431621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aligning language models (LMs) with human opinion is challenging yet vital to
enhance their grasp of human values, preferences, and beliefs. We present
ChOiRe, a four-step solution framework to predict human opinion that
differentiates between the user explicit personae (i.e. demographic or
ideological attributes) that are manually declared and implicit personae
inferred from user historical opinions. Specifically, it consists of (i) an LM
analyzing the user explicit personae to filter out irrelevant attributes; (ii)
the LM ranking the implicit persona opinions into a preferential list; (iii)
Chain-of-Opinion (CoO) reasoning, where the LM sequentially analyzes the
explicit personae and the most relevant implicit personae to perform opinion
prediction; (iv) and where ChOiRe executes Step (iii) CoO multiple times with
increasingly larger lists of implicit personae to overcome insufficient
personae information to infer a final result. ChOiRe achieves new
state-of-the-art effectiveness with limited inference calls, improving previous
LLM-based techniques significantly by 3.22%.
- Abstract(参考訳): 人間の意見による言語モデル(LM)の調整は、人間の価値観、嗜好、信念の把握を高めるために不可欠である。
筆者らは, ユーザの明示的な人格(人口的・イデオロギー的属性)と, ユーザの歴史的意見から推測される暗黙的な人格とを区別した, 人間の意見を予測する4段階の枠組みであるChOiReを提案する。
具体的には
(i)ユーザの明示的な人格を分析し、無関係な属性をフィルターするlm
二 暗黙のペルソナの意見を優先リストにランク付けすること。
(iii)チェーン・オブ・オピニオン(coo)の推論。lmは、明示的な人格及び最も関連する暗黙の人格を順次分析し、意見の予測を行う。
(iv)ChOiReがStepを実行する場所
(iii) 人格情報の不足を克服して最終結果を推測するために、暗黙の人格の一覧をますます大きくして何度もcooする。
ChOiReは、限られた推論呼び出しで新しい最先端の有効性を実現し、従来のLCMベースの技術を3.22%大幅に改善した。
関連論文リスト
- Personalized Language Modeling from Personalized Human Feedback [55.458647587228185]
個人化された人間のフィードバックから学習するタスクを紹介し、この文脈でバニラRLHFが問題となる理由を説明する。
本稿では,ユーザモデルと言語(あるいは報酬)モデルを共同で学習する必要がある一般パーソナライズ-RLHFフレームワークを提案する。
提案手法の有効性を実証するために,注釈付き好みと注釈付き情報を用いた実世界のテキスト要約データを用いて検証を行った。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - Which Prompts Make The Difference? Data Prioritization For Efficient
Human LLM Evaluation [9.452326973655445]
計量に基づく手法は,必要なアノテーションの数を最小化することで,人間の評価の効率を向上させる。
提案手法は,広く用いられているモデルファミリに対して有効であり,非決定的(あるいは"tie")な結果のインスタンスを最大54%削減できることを示す。
この人的努力の潜在的な削減は、我々のアプローチを将来の大規模言語モデル評価における貴重な戦略として位置づけている。
論文 参考訳(メタデータ) (2023-10-22T21:48:51Z) - Towards Understanding Sycophancy in Language Models [49.99654432561934]
人間のフィードバックを利用した微調整を施したモデルにおける梅毒の有病率について検討した。
5つの最先端のAIアシスタントが、4つの異なる自由形式のテキスト生成タスクで常に梅毒を発現していることを示す。
以上の結果から、サイコファンシーは最先端のAIアシスタントの一般的な行動である可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-20T14:46:48Z) - Human Feedback is not Gold Standard [28.63384327791185]
我々は、トレーニングと評価の両方において、人間のフィードバックの使用を批判的に分析する。
選好スコアはかなり良いカバレッジを持っているが、事実性のような重要な側面は低く表現されている。
論文 参考訳(メタデータ) (2023-09-28T11:18:20Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - GUMSum: Multi-Genre Data and Evaluation for English Abstractive
Summarization [10.609715843964263]
事前学習された言語モデルによる自動要約は、驚くほど流動的な結果をもたらすが、"幻覚"の傾向にある。
GUMSumは、抽象的な要約を評価するために、12の言語ジャンルで書かれた英語の要約のデータセットである。
論文 参考訳(メタデータ) (2023-06-20T03:21:10Z) - DecipherPref: Analyzing Influential Factors in Human Preference
Judgments via GPT-4 [28.661237196238996]
我々はOpenAIから解放された一対の人的判断の収集を詳細に調査する。
最も好まれる要因はタスクやジャンルによって異なり、最も好まれない要因は一貫性がある傾向にある。
本研究は,人間の嗜好評価におけるバランスの取れたデータセットの構築に影響を及ぼすものである。
論文 参考訳(メタデータ) (2023-05-24T04:13:15Z) - Rudolf Christoph Eucken at SemEval-2023 Task 4: An Ensemble Approach for
Identifying Human Values from Arguments [0.0]
議論テキストから人間の値を検出するためのアンサンブル手法を提案する。
我々のアンサンブルは3つのモデルから構成される: (i) 説明に基づいて人間の値を決定するエンテーメントベースモデル、 (ii) 議論から人間の値の集合を予測するロバータベースの分類器。
論文 参考訳(メタデータ) (2023-05-09T10:54:34Z) - Training Language Models with Language Feedback at Scale [50.70091340506957]
我々は、より情報的な言語フィードバックを利用する新しいアプローチであるLanguage Feedback (ILF)から学習を導入する。
ILFは3つのステップから成り、まず言語モデルを入力に条件付けし、最初のLM出力を出力し、改善を生成する。
理論的には、ILFは人間からのフィードバックによる強化学習と同様、ベイズ推論とみなすことができる。
論文 参考訳(メタデータ) (2023-03-28T17:04:15Z) - Revisiting the Gold Standard: Grounding Summarization Evaluation with
Robust Human Evaluation [136.16507050034755]
要約のための既存の人間の評価研究は、アノテータ間の合意が低かったり、スケールが不十分だったりしている。
細粒度セマンティック・ユニットをベースとした改良された要約サリエンス・プロトコルであるAtomic Content Units (ACUs)を提案する。
ロバスト・サムライゼーション・アセスメント(RoSE)ベンチマークは,28の上位性能システム上で22,000の要約レベルのアノテーションからなる大規模な人的評価データセットである。
論文 参考訳(メタデータ) (2022-12-15T17:26:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。