Lukas:GPT-3 的优点之一似乎是它可以开箱即用。但我也可以想象,对于一些团队来说,如果出现问题,他们可能会担心该怎么办。我想我很好奇,你通常与公司内部的 ML 团队合作,还是更多的工程师认为这里的好处是,他们不必弄清楚机器学习是如何工作的,以获得自然语言处理的好处,或者你是否倾向于将其与 ML 团队集成到一种更大的 ML 工作流中?
Peter:我得说,这是一种混合,我们有多个机器学习团队。他们已经有了自己的模型,他们会在网上下载模型等等,他们会根据任务对模型进行调整,然后他们找到了我们的 API 并开始使用我们的 API 做同样的事情,结果证明你可以从我们的模型中获得更好的性能。就像我们所拥有的最大的模型或最好的模型都没有开源版本,对于很多任务来说,这是最有效的方法。
但我认为,我们的大多数客户可能更倾向于另一个阵营,即“真正聪明的开发者”。当我说“开发人员”时,这是一个相当广泛的群体,从程序员到工程师,从设计师到项目经理。许多人告诉我们 OpenAI API 是他们进入编程的原因,因为他们从我们的游乐场得到了非常好的结果,在那里你可以与我们的模型交互。他们有了想法,就开始学习如何编码,并接触到像 Bubble IO 之类的无代码工具。这真的降低了障碍,你不必成为一名机器学习专家,也能从这些模型中得到非常好的结果。你只需要善于迭代并弄清楚如何向模型编写指令。
Peter:这个很有趣,因为早期,当我们有第一个版本的 API 时,我们有一个非常聪明的人,他是一位世界知名的作者,也是一个程序员:安德鲁·梅恩(Andrew Mayne)。他是该 API 的早期用户之一,他的内部名称是“提示耳语者(Prompt Whisperer)”,或“GPT-3 耳语者”,他真的知道如何精心设计提示以获得最好的结果。
Peter:原则上,你可以把它设置成非常可复制的。如果你在同一天训练,基本上你在训练时想要做的是,在每次训练迭代中,你有一批数据,比如一些例子,你实际上可以把 API 设置批量大小,每次更新需要多少个示例。我认为它默认是 32 或类似的东西,当你这样做时,你还希望对数据进行随机排序,你希望对训练数据进行随机抽样。
要使这种体验真正出色,这无疑是一个巨大的工程挑战。你只需开始微调,当它完成时,得到一个微调的模型名称。现在你可以在 API 中使用那个模型来立即得到一个结果,而且你不会按小时或其他方式收费,你只会以相同的方式为 API 收费。这真的很棘手,我们在 OpenAI 有一个了不起的工程团队,他们真的想出了很多技巧来平衡这些模型的最终位置,并以正确的方式缓存它们等等,以创造一个很棒的体验。
其次,你需要有快速的推理能力。在我们创建 API 之前,对于语言模型,没有人关心推理。每个人都关心你能多快地训练他们,因为这才是最重要的。因此,你可以在一天结束时解决基准测试问题。我们做了大量的工程设计来让推理超级超级快。我还记得在最初的几个月里,我们将 API 的第一个原型交付客户开始使用,我们将推理速度提高了 200 倍之类的。我们做了很多努力来让它超快。