APP下载

一键脱衣应用DeepNude迅速下线 来看看它涉及的影象修复技术_Using

消息来源:baojiabao.com 作者: 发布时间:2024-06-17

报价宝综合消息一键脱衣应用DeepNude迅速下线 来看看它涉及的影象修复技术_Using

大资料文摘出品

来源:Github

释出者:yuanxiaosc

上周,又一AI偏门应用DeepNude爆出,一键直接“脱掉”女性的衣服,火爆全球。

应用也很容易上手,只需要给它一张照片,即可借助神经网络技术,自动“脱掉”衣服。原理虽然理解门槛高,但是应用起来却毫不费力,因为对于使用者来说,无需任何技术知识,一键即可获取。

据释出者表示,研发团队是个很小的团队,相关技术显然也还很不成熟,多数照片(尤其是低分辨率照片)经过DeepNude处理后,得出的影象会有人工痕迹;而输入卡通人物照片,得出的影象是完全扭曲的,大多数影象和低分辨率影象会产生一些视觉伪像。

当然,目标“图片”还是各种女性,较早曝光这一应用的科技媒体Motherboard表示,他们通过几十张的照片测试,发现如果输入《体育画报泳装特辑》(Sports Illustrated Swimsuit)的照片,得到的裸体照片最为逼真。

海外媒体Motherboard测试图片

这一应用瞬间引发了社群的各类声讨,表示是对AI利用的反例。

连吴恩达也出面发声,声讨这一专案。

该应用在一片讨伐声中很快下线,但是,余震犹存。

尤其是对这一应用背后技术的探讨还一直在持续。

本周,一个名为“研究DeepNude使用的影象生成和影象修复相关的技术和论文“的GitHub升至一周热榜,获得了不少星标。

专案创始人显然对于这一专案背后的技术很有研究,提出了其生成需要的一系列技术框架,以及哪些技术可能有更好的实现效果。文摘菌在此进行转载,希望各位极客在满足技术好奇心的同时,也可以正确使用自己手中的技术力量。

以下为原文内容和来源连结:

https://github.com/yuanxiaosc/DeepNude-an-Image-to-Image-technology

接下来我会开源一些image/text/random-to-image的神经网络模型,仅供学习交流之用,也欢迎分享你的技术解决方案。

Image-to-Image Demo影象到影象demo

DeepNude软件主要使用Image Inpainting for Irregular Holes Using Partial Convolutions 中提出的Image-to-Image技术,该技术有很多其它的应用,比如把黑白的简笔画转换成色彩丰富的彩图,你可以点选下方的连结在浏览器中尝试Image-to-Image技术。

https://affinelayer.com/pixsrv/

在左侧框中按照自己想象画一个简笔画的猫,再点选pix2pix按钮,就能输出一个模型生成的猫。

Deep Computer Vision in DeepNude

Image Inpainting影象修复

效果

在Image_Inpainting(NVIDIA_2018).mp4视讯中左侧的操作界面,只需用工具将影象中不需要的内容简单涂抹掉,哪怕形状很不规则,NVIDIA的模型能够将影象“复原”,用非常逼真的画面填补被涂抹的空白。可谓是一键P图,而且“毫无ps痕迹”。该研究来自Nvidia的Guilin Liu等人的团队,他们释出了一种可以编辑影象或重建已损坏影象的深度学习方法,即使影象穿了个洞或丢失了画素。这是目前2018 state-of-the-art的方法。

Pix2Pix(need for paired train data)

DeepNude mainly uses this Pix2Pix technology.

Image-to-Image Translation with Conditional Adversarial Networks是伯克利大学研究提出的使用条件对抗网络作为影象到影象转换问题的通用解决方案。

CycleGAN(without the need for paired train data)

效果

CycleGAN使用循环一致性损失函式来实现训练,而无需配对资料。换句话说,它可以从一个域转换到另一个域,而无需在源域和目标域之间进行一对一对映。这开启了执行许多有趣任务的可能性,例如照片增强,影象着色,样式传输等。您只需要源和目标资料集。

未来

可能不需要Image-to-Image。我们可以使用GAN直接从随机值生成影象或从文字生成影象。

Obj-GAN

微软人工智能研究院(Microsoft Research AI)开发的新AI技术Obj-GAN可以理解自然语言描述、绘制草图、合成影象,然后根据草图框架和文字提供的个别单词细化细节。换句话说,这个网络可以根据描述日常场景的文字描述生成同样场景的影象。

效果

模型

StoryGAN

进阶版神笔:只需一句话、一个故事,即可生成画面

微软新研究提出新型GAN——ObjGAN,可根据文字描述生成复杂场景。他们还提出另一个可以画故事的GAN——StoryGAN,输入一个故事的文字,即可输出“连环画”。

当前最优的文字到影象生成模型可以基于单句描述生成逼真的鸟类影象。然而,文字到影象生成器远远不止仅对一个句子生成单个影象。给定一个多句段落,生成一系列影象,每个影象对应一个句子,完整地视觉化整个故事。

效果

现在用得最多的Image-to-Image技术应该就是美颜APP了,所以我们为什么不开发一个更加智慧的美颜相机呢?

2019-08-19 05:48:00

相关文章