IT之家 8 月 17 日消息,尽管 ChatGPT 已经推出了新的 GPT-5 模型,但其仍然存在出错的可能性。OpenAI 的一位高级高管本周再次强调了这一点。OpenAI ChatGPT 负责人尼克・特利(Nick Turley)在接受 The Verge 的 Decoder 播客采访时指出:“在可靠性方面,可靠和完全可靠之间存在很大的不连续性。”他进一步解释道:“除非我们能够证明在所有领域,而不仅仅是某些领域,ChatGPT 比人类专家更可靠,否则我们会继续建议你仔细核对答案。”
特利称:“我认为人们会继续将 ChatGPT 作为第二种参考意见,而不一定将其作为主要事实来源。”
然而问题在于,人们很容易就直接接受聊天机器人的回答,但生成式人工智能工具(不仅仅是 ChatGPT)往往有“幻觉”问题,即编造信息。这是因为它们主要是基于训练数据中的信息来预测查询的答案,而没有对事实的明确理解。
据IT之家了解,尽管 AI 在猜测方面表现不错,但归根结底,它们仍然只是在猜测。特利承认,当与传统搜索引擎或公司内部特定数据等能够更好地掌握事实的工具结合使用时,该工具表现最