亚洲精品无码乱码成人|最近中文字幕免费大全|日韩欧美卡一卡二卡新区|熟妇性饥渴一区二区三区|久久久久无码精品国产AV|欧美日韩国产va在线观看|久久精品一本到99热动态图|99国产精品欧美一区二区三区

您現(xiàn)在的位置是: 創(chuàng)投 > > 正文

【全球時快訊】GAN卷土重來:10億參數(shù)的GigaGAN效果堪比擴散模型

時間:2023-06-17 09:05:41 來源:程序員客棧 發(fā)布者:DN032


(資料圖片)

點藍色字關(guān)注“機器學(xué)習(xí)算法工程師”

設(shè)為星標(biāo),干貨直達!

自從 DALL·E 2 之后,在圖像生成方面擴散模型替代GAN成了主流方向,比如開源的文生圖模型stable diffusion也是基于diffusion架構(gòu)的。近日, Adobe研究者在論文Scaling up GANs for Text-to-Image Synthesis提出了參數(shù)量為10億(1B)的GAN模型:GigaGAN,其在文生圖效果上接近擴散模型效果,而且推理速度更快,生成512x512大小圖像只需要0.13s,生成16M像素圖像只需要 3.66s。同時GigaGAN也支持latent空間的編輯功能,比如latent插值,風(fēng)格混合,以及向量運算等。

GigaGAN改進了StyleGAN架構(gòu),采用兩階段訓(xùn)練策略:一個是64x64的圖像生成器和一個512x512的圖像超分2器,其圖像生成器架構(gòu)如下所示(這里也是采用CLIP text encoder來引入text condition):GigaGAN在 LAION2B-en和 COYO-700M數(shù)據(jù)集上訓(xùn)練,其在COCO數(shù)據(jù)集上的FID達到9.09,超過stable diffusion 1.5,推理速度比stable diffusion快20倍多(2.9s vs 0.13s):GigaGAN除了文生圖能力,還可以實現(xiàn)可控的合成,比如風(fēng)格混合,如下圖所示:更多效果圖和技術(shù)細節(jié)見論文https://arxiv.org/abs/2303.05511和網(wǎng)站https://mingukkang.github.io/GigaGAN/

標(biāo)簽:

搶先讀

相關(guān)文章

熱文推薦

精彩放送

關(guān)于我們| 聯(lián)系我們| 投稿合作| 法律聲明| 廣告投放

版權(quán)所有© 2011-2023  產(chǎn)業(yè)研究網(wǎng)  m.www-332159.com

所載文章、數(shù)據(jù)僅供參考.本站不作任何非法律允許范圍內(nèi)服務(wù)!

聯(lián)系我們:39 60 29 14 2 @qq.com

皖I(lǐng)CP備2022009963號-13


登封市| 南华县| 福鼎市| 房产| 寻甸| 涞源县| 吉安市| 新余市| 泗阳县| 东台市| 绥芬河市| 福安市| 建始县| 三门峡市| 商都县| 忻州市| 呼图壁县| 东辽县| 高安市| 图木舒克市| 鱼台县| 芜湖市| 枝江市| 开封市| 车致| 冕宁县| 崇信县| 吉木萨尔县| 徐汇区| 搜索| 公安县| 德令哈市| 荔波县| 蓬安县| 临沂市| 馆陶县| 岢岚县| 化德县| 麦盖提县| 博野县| 鞍山市|