ChatGPT 是最近任何人都可以谈论的话题。在语言模型 GPT 3 和 GPT 3.5(适用于Plus 订阅者)的支持下,AI 聊天机器人在其功能方面取得了突飞猛进的发展。然而,许多人一直在屏息等待突破极限的升级模型。好吧,OpenAI 现在已经通过 GPT-4 实现了这一目标,GPT-4 是其最新的多模式 LLM,它充满了人工智能的改进和前所未有的技术。查看下面的所有详细信息!
GPT-4 是多模式的并且优于 3.5
OpenAI 新发布的 GPT-4 模型是人工智能领域的一件大事。最值得一提的是,GPT-4 是一个大型的多模态模型。这意味着它将能够接受图像和文本输入,从而提供更深入的理解。OpenAI 提到,尽管新模型在许多现实场景中的能力不如人类,但它仍然可以在各个层面表现出人类水平的表现。
GPT-4 也被认为是比其前身 GPT-3.5 更可靠、更具创造性和更高效的模型。例如:新模型可以通过模拟律师考试,得分在考生的前 10% 左右(约 90 个百分点),而 GPT 3.5 则排在后 10%。GPT-4 还能够处理比 3.5 模型更细微的指令。OpenAI 在各种基准测试和考试中比较了这两个模型,GPT-4 名列前茅。在这里 查看ChatGPT 可以做的所有很酷的事情。
GPT-4 和视觉输入
如上所述,新模型可以接受文本和图像的推广。与受限的文本输入相比,GPT-4 在理解包含文本和图像的输入方面表现更好。视觉输入在各种文档上保持一致,包括文本和照片、图表,甚至屏幕截图。
chatgpt多模式
OpenAI 通过向 GPT-4 提供图像和文本提示来展示相同的内容,要求它描述图像的有趣之处。如上所示,该模型能够成功地从 Reddit 中读取随机图像并回答用户提出的提示。然后它能够识别幽默元素。然而,GPT-4 的图像输入仍未公开,是研究预览。
容易产生幻觉和有限的数据
虽然 GPT-4 与之前的迭代相比有了相当大的飞跃,但仍然存在一些问题。对于初学者,OpenAI 提到它仍然不完全可靠并且容易产生幻觉。这意味着 AI 会出现推理错误,应该非常小心地处理其输出并进行人工干预。它的预测也可能是错误的,这可能会导致错误。但是,与之前的模型相比,GPT-4 确实减少了幻觉。具体而言,新模型在公司评估中的 得分比GPT-3.5高出40% 。
许多人希望 GPT-4 能够解决的另一个缺点是数据集有限。不幸的是,GPT-4仍然缺乏对 2021 年 9 月之后发生的事件的了解,这令人失望。它也没有从转化为上述推理错误的经验中吸取教训。此外,GPT-4 可能会在难题上失败,就像人类包括安全漏洞一样。但是没有什么可担心的,因为 Microsoft Bing AI 使用的是 GPT-4 模型。是的,在 Bing 上实时互联网数据的支持下,您可以尝试新的 AI 模型。查看本文, 了解如何在任何浏览器中访问 Bing AI 聊天——不限于 Edge。
使用 ChatGPT Plus 访问 GPT-4
GPT-4适用于具有使用上限的ChatGPT Plus 订阅者。OpenAI 提到它将根据需求和系统性能调整确切的使用上限。此外,该公司甚至可能会推出“新订阅层”,以提高 GPT-4 的使用量。另一方面,免费用户将不得不等待,因为该公司没有提到任何具体计划,只是“希望”它可以为没有订阅的用户提供一定数量的免费 GPT-4 查询。
从外观上看,GPT-4 将成为一种极具吸引力的语言模型,即使它的盔甲上有一些缝隙。对于那些寻找更详细信息的人,我们已经在做一些事情。敬请期待更多。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!