每个实验室将如何生成所需的数据以实现更高的智能水平这将是一个关键问题我们如何朝着数据丰富迈进?这将需要多个领域的前沿研究。 我认为首先是推动数据复杂性的提升迈向前沿数据。我们希望在模型中构建的许多能力其最大的障碍其实是数据的缺乏。 比如说过去两年内 一直是一个热门话题但实际上几乎没有 能很好地运作。 原因是网络上根本没有大量有价值的 数据。这些数据不在那里所以我们需要生产高质量的 数据。 v : 能举个例子说明我们需要生产什么样的数据吗? W: 我们即将发布的一项研究表明目前所有前沿模型在工具组合上的表现都很差。
比如它们需要先查找信息然后编写一个 h 脚本再绘制图表使用多个工具串联起来解决问题时模型表现得非常糟糕。而这对人类来说是非常自然的。 v : 是的但这些操作没有被记录下来是这个意思吗?也就是说模型无法学习 佐治亚州 whatsapp 数据 到这些步骤。 W: 完全正确。这些推理链条在人类解决复杂问题时非常常见我们会自然地使用一系列工具思考问题并推理下一步需要做什么。如果遇到错误我们会回过头重新考虑。很多这样的智能链条数据今天根本不存在。这是一个需要生成的数据例子。 退一步讲首先需要在数据上取得的进展是增加数据的复杂性朝前沿数据迈进。其次是增加数据的生产量捕捉更多人类在实际工作中的行为。
v : 更多捕捉人类在工作中的实际操作? W: 是的捕捉更多人类的操作行为同时投资于合成数据或混合数据。 利用合成数据同时让人类参与其中从而生成更高质量的数据。我们需要像对待芯片生产一样看待数据生产。 就像我们讨论芯片生产的边界确保有足够的生产能力来制造芯片。对于数据也是一样的我们需要有效的数据生产边界能够生成海量数据来支持模型训练。 最后一个经常被忽视的方面是对模型的测量确保我们能够科学地分析模型的不足之处从而精确确定需要添加哪种数据来提高模型的性能。 v : 大科技公司相对于独立实验室在数据资源上有多大的优势呢? W: 大公司在利用现有数据资源时面临很多监管问题。