只花2.2毫秒完成推论!NVIDIA催化AI与人互动,大幅缩短BERT的语言训练时间

 人工智能的应用     |      2019-08-15 12:00

看准未来市场对於对话式AI的需求,NVIDIA在其平台导入多项关键优化技术,解决致力训练机器达到人类理解水准的瓶颈。不仅在训练跟推论方面都有刷新速度纪录,同时也建构出至今最大的语言模型。

Siri或是Alexa是你的好朋友吗?日常生活都会跟他们说上两句进行互动吗?这些市场上为人熟悉的语音助手-对话式AI(人工智能),明显不同於纯粹的「语音搜索」,最大的差异在於:对话式AI让人与机器有进一步互动的过程,而非单一的下达指令。

为了要让对话式AI的表现更加自然、更接近我们人类的沟通语法,目前仰赖的「自然语言处理」(NLP),目的就是要让电脑能更有能力去了解人类的语言。

而目前NLP最大的困难在於各种语言上的「博大精深」,该如何去让机器可以在接收文本之后,能够有最佳且自然的反馈,正确地去理解文句以及其前后文的意涵,是需要花时间去让机器学习的。

▲如Alexa、Siri这些语音助手,其实都是一种对话式AI的表现。

近来市场上训练NLP语言模型的专案,包括BERT、ELMo、XLNet等。其中,Google的BERT更是目前训练NLP的模型里面,表现最佳的一个应用;作为开放资源的程序,Facebook利用BERT所推出的语言模型:RoBERTa,更是横扫各大自然语言处理测试排行榜,如GLUE排行榜评分第一。

BERT全名为转译器的双向编码表述,是由Google所推出的语言代表模型。

做为一个语言模型(Language Model),最重要的就是在接收词汇之后,可以去预估接下来词汇出现的分布机率。但要让它可以聪明的运作,需要的是极为大量的数据数据学习,以及实际能够让人了解的语法结构。再者,如此的语言模型,也能透过迁移学习导入到NLP,同时强化NLP的能力。

从以上的脉络看来,完成一个语言模型的过程肯定是漫长又复杂的。但NVIDIA就是有办法利用技术加快这个时程,到底为什么呢?

▲人类正站在文明跃进的转折点,我们所理解的未来科技,正以难以想像的发展逐步实现。

NVIDIA如何切入?让AI在2年后做到15%的客服互动

研调机构Gartner预测,到了2021年,15%的客服互动将由AI执行,包括医疗、零售、金融业等,这样的比例较2017年增加4倍。


  • 共3页:
  • 上一页
  • 1
  • 2
  • 3
  • 下一页