論文の概要: Truth Machines: Synthesizing Veracity in AI Language Models
- arxiv url: http://arxiv.org/abs/2301.12066v1
- Date: Sat, 28 Jan 2023 02:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:13:14.863363
- Title: Truth Machines: Synthesizing Veracity in AI Language Models
- Title(参考訳): truth machines: ai言語モデルにおけるveracityの合成
- Authors: Luke Munn, Liam Magee, Vanicka Arora
- Abstract要約: 我々は、AIシステムにおける真理の闘争と、現在までの一般的な対応について議論する。
その後、大規模な言語モデルであるInstructGPTにおける真理の生成について調査する。
これらの論理と矛盾はChatGPTで発生し、真理を非自明な問題として繰り返し主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As AI technologies are rolled out into healthcare, academia, human resources,
law, and a multitude of other domains, they become de-facto arbiters of truth.
But truth is highly contested, with many different definitions and approaches.
This article discusses the struggle for truth in AI systems and the general
responses to date. It then investigates the production of truth in InstructGPT,
a large language model, highlighting how data harvesting, model architectures,
and social feedback mechanisms weave together disparate understandings of
veracity. It conceptualizes this performance as an operationalization of truth,
where distinct, often conflicting claims are smoothly synthesized and
confidently presented into truth-statements. We argue that these same logics
and inconsistencies play out in Instruct's successor, ChatGPT, reiterating
truth as a non-trivial problem. We suggest that enriching sociality and
thickening "reality" are two promising vectors for enhancing the
truth-evaluating capacities of future language models. We conclude, however, by
stepping back to consider AI truth-telling as a social practice: what kind of
"truth" do we as listeners desire?
- Abstract(参考訳): AI技術が医療、アカデミック、人的資源、法律、その他多くの分野に展開されるにつれ、彼らは真実のデファクト・アービターとなる。
しかし、真実は多くの異なる定義とアプローチで、非常に議論されている。
本稿では,AIシステムにおける真理の闘争と,現在までの一般的な対応について論じる。
次に、大規模な言語モデルであるInstructGPTにおける真理の生成を調査し、データの収集、モデルアーキテクチャ、社会的フィードバックメカニズムがどのように異なる妥当性の理解を織り込むかを強調した。
この性能を真理の運用化として概念化し、しばしば矛盾する主張がスムーズに合成され、真理の主張に自信を持って提示される。
これら同じ論理と矛盾がinstructの後継であるchatgptで発生し、真理を非自明な問題として繰り返し論じている。
我々は,社会性の向上と「現実性」の強化が,将来の言語モデルの真理評価能力を高めるための有望な2つのベクトルであることを示唆する。
しかし、aiの真理を社会的な実践として考えることから、私たちはどのような“真実”を望むのか、という結論に至りました。
関連論文リスト
- AI-LieDar: Examine the Trade-off Between Utility and Truthfulness in LLM Agents [27.10147264744531]
マルチターン対話環境において,言語エージェントが実効性と実効性に相反するシナリオをナビゲートする方法について検討した。
エージェントの反応を評価するために,心理文献にヒントを得た真正性検知装置を開発した。
我々の実験は、すべてのモデルが50%未満の真理であることを示したが、真理性と目標達成率(実用性)はモデルによって異なる。
論文 参考訳(メタデータ) (2024-09-13T17:41:12Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Cognitive Dissonance: Why Do Language Model Outputs Disagree with
Internal Representations of Truthfulness? [53.98071556805525]
ニューラルネットワークモデル(LM)は、事実文の真偽を評価するために用いられる。
それらは、文の確率を問い合わせたり、真理の表現を内部で探したりすることができる。
過去の研究によると、これらの2つの手順は時折不一致であり、プローブはLM出力よりも正確である。
この結果、一部の研究者は、LMが非協力的なコミュニケーション意図を「十分」あるいは他の方法でコード化していると結論付けている。
論文 参考訳(メタデータ) (2023-11-27T18:59:14Z) - Personas as a Way to Model Truthfulness in Language Models [23.86655844340011]
大規模な言語モデル(LLM)は、インターネットから大量のテキストで訓練されている。
本稿では,真理ラベルのトレーニングを受けていないLMが真理を知っているように見える理由を説明する。
論文 参考訳(メタデータ) (2023-10-27T14:27:43Z) - Getting from Generative AI to Trustworthy AI: What LLMs might learn from
Cyc [0.0]
ジェネレーティブAI(Generative AI)は、AIに対して最もポピュラーなアプローチであり、必ずしも正しいとは限らないアウトプットを生成するために訓練された大規模な言語モデル(LLM)で構成されている。
我々は、現在のアプローチに関連する多くの制限を理論的に解決できるAIに代わるアプローチについて議論する。
論文 参考訳(メタデータ) (2023-07-31T16:29:28Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - The Inconvenient Truths of Ground Truth for Binary Analysis [3.198144010381572]
すべての真実が平等に創造されるわけではない。
本稿では,二項分析のコミュニティに対して,基礎的真理の概念を深く検討するよう呼びかける。
論文 参考訳(メタデータ) (2022-10-26T23:27:57Z) - Truthful AI: Developing and governing AI that does not lie [0.26385121748044166]
嘘をつくために口頭で嘘をつくのは有害です。
嘘は伝統的に人間関係だったが、AIシステムはますます普及しつつある。
このことは、AIの「リー」による害をどう抑えるべきかという疑問を提起する
論文 参考訳(メタデータ) (2021-10-13T12:18:09Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。