APP下载

OpenAI结合非监督式、监督式机器学习方法,大幅提升AI文字理解与推测能力

消息来源:baojiabao.com 作者: 发布时间:2024-05-12

报价宝综合消息OpenAI结合非监督式、监督式机器学习方法,大幅提升AI文字理解与推测能力

OpenAI以非监督式学习预训练模型,并结合监督式训练做微调,其研究结果显示,人工智能对于语言理解的程度大幅提升,特别在COPA、RACE和ROCStories这三个资料集,被认为需要多语句推理和重要知识参与理解,而OpenAI的新方法比起其他竞争对手,在这些资料集的分数都获得很大程度的提升。

研究团队在进行情绪神经元相关工作时,获得了新方法的启发。这个新方法主要有两个阶段,首先研究团队为非监督式的方法Transformer模型,提供非常大量的训练资料,并将语言建模做为训练讯号,之后在以小型的资料集,对这个模型进行微调,让他适合解决特定任务。

当有足够庞大的资料做为训练输入时,非监督式学习反而可以产生令人惊讶的区别性特征。基于这个发现,当建置模型后,以无监督的方式使用大量资料进行训练,接着对模型进行调校,以提供不同工作的最佳效能,而换句话说,相同的核心模型,透过不同的微调就能处理不一样的任务,大大提升了工作效率。

在近期的机器学习研究中,监督式学习有很大的进展,但是其缺点就是需要庞大、经过仔细整理的标签资料集,而取得这些资料集的成本非常高,Google的人工智能研究团队也提到了同样的困难。因此OpenAI认为,虽然非监督式学习现在可应用的领域仍然非常有限,但可以使用不具有明显人类标记的训练资料,对于研究人员来说极具吸引力,而且由于当前运算资源增加,原始资料的可用性便获得提升。

对于模型以大量文本进行预训练,可以大幅改进自然语言处理的效率,像是Winograd Schema Resolution这类的任务都能得到帮助。研究人员也提到,底层的语言模型也可以不经过训练,便能开始执行任务,他们提到,随着底层语言模型的改进,像面对选择题挑选出正确答案这样的任务,模型性能会在过程中越趋稳定。该模型在COPA、RACE和ROCStories这三个资料集的表现特别良好,无论是在常识推理或是阅读理解上,都超越现存方法的表现。

这个底层的语言模型还能拿来进行情感分析,OpenAI研究人员使用内含正面与负面电影评论的Stanford Sentiment Treebank资料集,让模型预测评论为正面或是负面,在不对这个任务进行最佳化的情况下,推测精确度达80%。这个研究验证了Transformer架构的强健性与稳定性,有足够的灵活性应付各类工作,而且不需要超级参数组设定。当然,比起监督式学习的结果来说,非监督式学习在这部分的研究还在很初期的阶段,但却提供了研究人员另外的可能性。

研究团队也提到了这个方法的3个缺点,首先,这个非监督式学习需要较多的运算资源,过去的研究在NLP任务训练上,仅需要单一GPU就可以完成,但是OpenAI的这个新方法却需要8颗GPU预训练长达一个月,虽然只需要计算一次,但是对于预训练来说成本还是相当高。另外,预训练出来的模型很大,以至于需要更多的计算力与内存进行推测运算。

第二个缺点,从文字学习知识存在限制以及偏差,除了书籍以及网络上的资料提供的知识,可能不完整或是错误外,研究团队引用其他研究,部分特定领域资讯难以透过文字学习。最后,尽管这个方法改进解决多领域任务的效能,但是目前深度学习NLP模型,仍然在很多时候会出现意料之外或是违反直觉的结果,特别是用系统化指标来衡量的时候。

2018-06-13 18:31:00

相关文章