随之而来的是自然语言处理(NLP),该领域的研究人决特定类型的语言理解问题。有几个例子;实体识别、分类、情感分析和问答. 传统上,所有这些问题都是通过单独的模型来解决的,这些模型是为解决特定的语言任务而定制的,因此看起来有点像你的厨房: 将单个 NLP 模型视为厨房里的用具,它们都有自己擅长的特定工作。
现在考虑一下您最常用的 11 种厨房用具之一。这是 BERT 冰岛电报数据库 一个厨房用具,在真正做对之后,可以完成 11 项高级自然语言处理解决方案。 NLP 领域中的一个有趣的区别。这就是人们对此感到非常兴奋的原因,因为他们不再需要所有单独的模型。 ——他们可以使用 BERT 来解决大多数 NLP 任务,因此谷歌将 BERT 纳入谷歌算法也是有道理的。
BERT 要去哪里? 这是要去哪里?这是要去哪里?艾莉森曾说, “我认为我们会在同一道路上走一段时间,构建更大更好的 BERT 版本,这些版本在 BERT 的稳健性方面也同样稳健,但也许具有相同的基本局限性。” 目前已经有许多不同版本的 BERT,并且我们将继续看到越来越多的 BERT。观察这一差距将会走向何方将会很有趣。