热门关键词:

生成对抗网络:google GAN算法是怎样骗人的,GAN原理是什么

12-24
12-24,资讯生成对抗网络:google GAN算法是怎样骗人的,GAN原理是什么最新消息报导,手机发烧友资讯

「生成对抗网路」GAN是怎样一步步学会「骗人」的?

演算法,就像是武林绝学中的「内功」,是电脑领域最重要的基石。不过,演算法多了也很麻烦。不断推陈出新的演算法是否更新更快更好,大厂各执一词,评价褒贬不一。没有「内功」,不可能成为高手;「内功」多了,难免走火入魔。

或许搞清楚一种演算法是在何时以何种方式何种面貌进化的,能更清晰地理解它的现在和未来。今天的演算法简史,就从现在整个AI圈最热门的机器学习模型GAN说起。

 

 

从传统模型到逼真的GAN2.0,生成演算法经历了哪些变化?

 

生成对抗网路(GAN, Generative Adversarial Networks )是一种深度学习模型,作为在无监督学习上最具前景的演算法之一,最早是在2014年由学者Ian J. Goodfellow等人提出的。

 

在GAN所代表的深度学习之前,已经有很多生成模型。但这种模型是从机率统计角度出发的,指的是用于随机生成可观测数据的模型,很难直接描述和建模。让研究人员遇到了不少挑战。

比如说传统的图像生成模型,将图像表示为一个随机向量,其中每一维度都代表一个像素值,然后假设自然场景中的图像都服从一个未知的分布规则,透通过一些观测样本来估计其分布。

 

显然,这种难以描述和直接建模的生成模型,让科研人员遇到了不少困难。最为重要的一点是,系统无从判断预测结果的品质好坏。

 

「生成对抗网路」GAN是怎样一步步学会「骗人」的?

 

而原始版GAN(我们称之为GAN1.0),就在深度学习的浪潮下应运而生。

 

GAN1.0不仅可以利用深层神经网路模拟任意涵数的能力,让复杂的分布判断得以被建模,而且增加了鉴别器。

 

于是「生成器网路」和「鉴别器网路」互相博弈,一个不停地捕捉数据产生新样本,一个不停提出质疑和挑战来判断所生成的样本是否真实。透过自我对抗不断改进,最终达到很好的输出结果。

 

「生成对抗网路」GAN是怎样一步步学会「骗人」的?

 

可以说,GAN开启了生成演算法的「实用时代」。当然,它并非是十全十美的,针对GAN1.0一些尚未解决的问题,还产生了不少变种演算法。

 

比如Alec Radford et. Al对GAN做了一些架构上的最佳化,使用超参数和优化器改进之后,可以得到足以乱真的卧室图片。

 

「生成对抗网路」GAN是怎样一步步学会「骗人」的?

 

如果说GAN1.0的生成能力已经令人五体投地,那么最近NIVIDA研究人员推出的升级版GAN(我们称之为GAN2.0),更是足够感到惊讶。

 

GAN2.0采用了基于风格的生成器新结构,可以将脸部细节分离出来,透过模型进行单独调整,产生的脸部图像结果大幅度超越了GAN1.0和其他模型。

 

之所以如此惊人,一是因为GAN2.0可以更好地感知图像之间有意义的变化,并对其进行引导,让产生的人脸更逼真,而且还能用于汽车、动物、风景图像的产生。

 

「生成对抗网路」GAN是怎样一步步学会「骗人」的?

 

历史脉络整理清楚了之后,不难看出,深度学习为更高拟真度的生成演算法奠定了基础和可能。而GAN的对抗性及其应用价值,又让图像生成演算法成为了一门人人趋之若鹜的神器。

 

GAN的一小步,图像生成的一大步

 

那么,GAN模型发展到现在,到底经历了什么样的变化,又从无到有地获得了哪些能力呢?

主要集中在以下几个方面:

 

1.找重点。 GAN2.0采用的生成器架构,提取的图像风格不再是笔划或颜色空间这种僵硬的数据,而是图像的组成和脸部物理特征等泛属性,因此可以感知到图像之间哪些变化是有意义的(耳朵的形状),哪些特征无需重点关注(衬衫的颜色),因此比例的控制更细腻,生成的效果自然也就越逼真。

 

2.排除法。图像中很多随机且不起重要影响的细节,比如毛发、雀斑的具体位置等等,只要符合基本的规则分布,GAN2.0可以自主将一些随机变化剔除。

 

3.省资源。 GAN2.0可以将完整的特征图像进行缩放,这意味着,在没有明确指导的自主学习环境下,系统能够自行判断使用全局变量或本地管道,进而大大提高了整体效率。

 

「生成对抗网路」GAN是怎样一步步学会「骗人」的?

▲ GAN可以改变图像中的季节

 

这背后隐藏着的,正是演算法的本源价值——那就是将严谨的科学求证思维,与务实的工程方法相结合,解决问题的一种最佳方案。

 

而具体到生成任务上时,演算法的「优越性」往往体现在三点:一是能够更准确地判断和预测刺激的位置;二是可以进行更小粒度地调整,让结果更自然;最后是更具想像力和创造力,让演算法发挥的空间更大。

 

显然,GAN的发展正符合人类接近生成任务所面临的问题时,应该遵循的基本规则。

 

GAN身上映射的演算法进化论

 

GAN这一演算法的进化,带来了很多新鲜的想像力。

 

除了我们熟悉的仿真人脸、语义分割、声音处理等常规应用之外,还有一些因模糊而具有庞大想像空间的炫酷应用。

 

比如,谷歌大脑用GAN让神经网路学会联想。系统可以在完全不相关的图像中,发现一些与狗、房子、鱼等物体的相似之处,然后凭借自己的「想像力」将其呈现出来。这些奇幻的画作,既是一种机器创作的「先锋艺术」,更代表着很多人类思维也无法企及的奇幻世界正在被机器路径打开。

另外,在GAN的作用下,能自主模仿人类动作的智慧体正在成为可能。以往的演算法总是需要巨量规模的数据集和大量训练才能够有比较优秀的表现。但在模仿学习中,智慧体无需奖励机制就可以自主进行学习。

 

更夸张的 是,机器不仅无需奖励,甚至可以凭借「好奇心」这一信号去主动探索,这使得机器的学习成本、探索范围、学习效率都要比其他方式要强得多。

 

总而言之,GAN的进化让我们清晰地感受到了机器学习的模式和成本都在发生颠覆式的改变。

 

这背后隐藏着两个演算法进化的核心特点:

 

1.自主学习,「无监督」比有监督更有潜力。从GAN1.0初问世的火爆,到GAN2.0的逆天突破,可以看出,能够在无需任何监督信息的情况下自主完成训练,这样能够自我进化的演算法,才是通用人工智慧的基石。

 

2.效率至上,抛弃效率谈智力都是空谈。实验室里的演算法未必能够满足商业应用的长期需要,在实践中,可能要经历成本昂贵的磨合及试错过程,必须解决效率问题。 GAN的进化过程,就是一个从调用全栈资源,到懂得合理分配控制空间,懂得「过日子」的演算法才适用于通用智能化的现实世界。

 

GAN3.0未来可能的样子

 

话题进行到这里,或许我们可以设想一下,如果未来还将出现GAN3.0,它会是什么样子?

 

这里不妨大开脑洞一下:

 

首先,GAN3.0一定是在2.0基础上各个维度的再升级,加上机器「想像力」的加持,效果将不再局限于高精度模拟人脸或者是模拟现实世界,创造出毫无违和感的全新物种,成为新「造物主」都是极有可能的。

 

另外,GAN3.0对样本规模和精度的要求更低,这就使少样本预测成为可能,这也意味着随着NIVIDA、Google等不断开发自己的数据集,很多小型公司也有可能掌握迭代和优化系统的能力。也许,GAN3.0的提出者,现在还在车库里默默写程式码呢。

 

这一可能性也带来了竞争关键点的变化,未来研究者和使用者PK的重点,可能在创造力上。如何应用更强大的对抗生成网路解决更复杂的机器智慧问题,考验的并不是演算法本身的强弱,而是一种思维和方法论。

 

常有AI开发者感慨,每次都感觉用的是别人家的GAN,即便是相同的程式码和数据集,自己也从来没有做出过相同的效果。你和别人之间是不是只差一个演算法,自己心里难道不知道吗?

 

殊途同归,如果真有GAN3.0,它也会回归「演算法」的本质,那就是理解和演绎数位世界的逻辑思维和工程手段。

 

也因此,掌握了某一个先进的演算法,并不意味着就能捧回世界冠军的冠冕,决定技术生命力的,是不断精进的「内功」。

  • 赞助商广告