编者按:本文来自微信大众号“量子位”(ID:QbitAI),作者:鱼羊 ,36氪经授权发布。
上看,下看,左看,右看。从各个视点看美食,真是让人越看越饿。
而有个不知道是好消息仍是坏消息的事实是:这些食物从未实在存在过。
不错,这是DeepMind最新推出的LOGAN生成的“伪美食图鉴”。
这只GAN初上台就打败了“史上最强”的BigGAN,成为新的state-of-the-art,还把FID和IS别离提高了32%和17%。
什么概念?简而言之,就是LOGAN能够生成更高质量和更多样化的伪相片。
左面是BigGAN(FID/IS:5.04/126.8),右边是LOGAN(FID/IS:5.09/217)。
相同的低FID条件下,LOGAN可比BigGAN靠谱多了。
△左面是BigGAN,右边是LOGAN
而不考虑FID,在类似的高IS条件下,尽管生成的食物都相同实在,且热量爆破,但显着LOGAN的姿态水平会愈加丰厚。
而且,DeepMind表明:无需引进任何架构改变或其他参数。
潜在优化
DeepMind选用的办法,是引进了一种受CSGAN启示的潜在优化(latent optimisation)。
首要,让潜在变量z,经过生成器和判别器进行前向传达。
然后,用生成器丢失(赤色虚线箭头)的梯度来核算改进的z’。
在第2次前向传达中,运用优化后的z’。这以后,引进潜在优化核算判别器的梯度。
最终,用这些梯度来更新模型。
这一办法的中心,其实是加强判别器和生成器之间的交互来改进对立性。
GAN中根据梯度的优化存在的一个重要问题是,判别器和生成器的丢失发生的矢量场不是梯度矢量场。因而,不能确保梯度下降会找到部分最优解且可循环,这就会减慢收敛速度,或导致形式溃散、形式跳动现象。
辛梯度调理算法(SGA)能够在一般博弈中寻觅安稳不动点,能改进对立中根据梯度的办法的动态性。不过,由于需求核算一切参数的二阶导数,SGA的扩展本钱很高。
潜在优化能够只别离针对潜在变量z和和判别器、生成器参数,运用二阶导数,来到达近似SGA的作用。
如此,就不用运用核算价值昂扬的触及判别器和生成器参数的二阶项。
简而言之,潜在优化最有用地耦合了判别器和生成器的梯度,且更具可扩展性。
而且,LOGAN获益于强壮的优化器。研讨人员运用天然梯度下降(NGD)进行潜在优化时发现,这种近似二阶优化办法比准确二阶办法体现更好。
尽管NGD在高维参数空间中相同价值昂扬,但即便在非常大的模型中,它关于潜在优化也是有用的。
从试验成果来看,潜在优化显着改进了GAN的练习作用。
选用和BigGAN-deep基线相同的架构和参数数量,LOGAN在FID和IS上都有更好的体现。
不过,在练习期间,由于额定的前向和后向传达,LOGAN每一步的速度比BigGAN慢2到3倍。
华人一作领衔
论文一作,是DeepMind的研讨科学家Yan Wu。
他于2019获剑桥大学核算神经科学博士学位,16年进入DeepMind作业。
论文的其他几位作者,别离是结业于UC伯克利的Jeff Donahue博士。
结业于芝加哥大学数学专业的David Balduzzi博士。
Vision Factory创始人Karen Simonyan。
以及伦敦学院大学客座教授、结业于皇后大学的体系神经科学博士Timothy Lillicrap。
传送门:
论文地址:https://arxiv.org/abs/1912.00953
相关论文:
SGA:https://arxiv.org/abs/1802.05642CSGAN:https://arxiv.org/abs/1901.03554
封面图来自pexels