效果爆炸的開源漫畫變身AI,火到服務(wù)器幾度擠爆
排隊 1241 人,等待 2600 秒。

—— 這屆網(wǎng)友為了看一眼自己在動漫里的樣子,可真是拼了。
始作俑者是一款可以把人像變動漫的生成器。
什么國民老婆王冰冰:
什么國民妹妹IU:
什么科技圈大佬,EDG 成員,金發(fā)美女,容嬤嬤。上周,雷鋒網(wǎng)深度探訪了華為云貴安數(shù)據(jù)中心(一期)。
發(fā)絲,眉宇,甚至眼神里流露出來的情緒,都給你描繪得淋漓盡致。
視頻效果
這也難怪網(wǎng)友把服務(wù)器都給擠爆了。
隨便翻翻大家的作品,簡直是深不見底。
再看看 GitHub 上的相關(guān)項目,果然也沖上了趨勢榜第一名。
這個 AnimeGAN,真是厲害了!
如何給自己捏一個動漫臉。
看完展示的效果,你是不是也想打造一個自己專屬的漫畫臉了呢。
這個可以有,現(xiàn)在就手把手教你。
第一種方法就 very very 簡單了,只需要上傳一張照片就可以。預(yù)計貴安數(shù)據(jù)中心將成為華為全球最大的云數(shù)據(jù)中心,整體項目完成后,將容納100萬臺服務(wù)器。
提供在線玩法的網(wǎng)站,就是那個著名的抱抱臉。
BUT?。?!
也正如剛才提到的,現(xiàn)在這個 AI 著實有點太火了,簡單的在線方法,就等同于排大隊。
這不,等了 5259 秒之后,前面還有 15 人。
如果不想排隊怎么辦。
接下來,就是第二種方法了 —— 上代碼!
熱心網(wǎng)友在苦等了 3 小時之后,終于還是忍不住了,強烈安利 Colab 版本:
先運行一下文檔里的前兩段代碼,然后只需要簡單修改照片路徑即可。
當(dāng)然,如果想加大難度挑戰(zhàn)一下,AnimeGANv2 的 GitHub 項目也是有的哈:
風(fēng)格遷移 + GAN
那么,如此效果的背后,到底是用了什么原理呢。
AnimeGAN 是來自武漢大學(xué)和湖北工業(yè)大學(xué)的一項研究,采用的是神經(jīng)風(fēng)格遷移 + 生成對抗網(wǎng)絡(luò)的組合。
它其實是基于 CartoonGAN 的改進,并提出了一個更加輕量級的生成器架構(gòu)。
AnimeGAN 的生成器可以視作一個對稱的編碼器—解碼器網(wǎng)絡(luò),由標(biāo)準(zhǔn)卷積,深度可分離卷積,反向殘差塊,上采樣和下采樣模塊組成。
為了有效減少生成器的參數(shù)數(shù)量,AnimeGAN 的網(wǎng)絡(luò)中使用了 8 個連續(xù)且相同的 IRB。
在生成器中,具有 1×1 卷積核的最后一個卷積層不使用歸一化層,跟隨其后的是 tanh 非線性激活函數(shù)。。
上圖中,K 為內(nèi)核大小,C 為特征圖數(shù)量,S 為每個卷積層的跨度,H 是特征圖的高度,W 是特征圖的寬度,Resize 值用于設(shè)置特征圖大小的插值方法,⊕表示逐元素加法。
而此次的 V2 版本,是基于第一代 AnimeGAN 的升級,主要解決了模型生成的圖像中存在高頻偽影的問題。
具體而言,所采取的措施是使用特征的層歸一化,來防止網(wǎng)絡(luò)在生成的圖像中產(chǎn)生高頻偽影。
AnimeGANv2 的生成器參數(shù)大小為 8.6MB,而 AnimeGAN 的生成器參數(shù)大小為 15.8MB。
它倆使用的鑒別器大致相同,區(qū)別在于 AnimeGANv2 使用的是層歸一化,而不是實例歸一化。
網(wǎng)友:我變漂亮了
這個 AI 可算是圈了一眾粉絲。
有些網(wǎng)友沖進二次元之后,發(fā)現(xiàn)了自己驚人的美貌:
它把我變漂亮了!
而且非常驕傲的曬出了自己的漫畫臉。
還有網(wǎng)友看完比爾蓋茨的效果之后,直呼:
天!蓋茨看起來聰明又性感。
就連新海誠導(dǎo)演都曾轉(zhuǎn)發(fā)過 AnimeGAN 的作品呢。
One More Thing
最后,大家上手之前一定要注意,雖然 AnimeGAN 展示的效果都是比較好的,但這有一個大前提:
照片一定要高清,五官盡量要清晰!
不然畫風(fēng)可能就會變得詭異。
那么,你在漫畫里是什么樣子。
快去試試吧~
在線 Demo:
Colab 版本:
GitHub 地址:
。聲明:本網(wǎng)轉(zhuǎn)發(fā)此文章,旨在為讀者提供更多信息資訊,所涉內(nèi)容不構(gòu)成投資、消費建議。文章事實如有疑問,請與有關(guān)方核實,文章觀點非本網(wǎng)觀點,僅供讀者參考。