亚洲精品无码乱码成人|最近中文字幕免费大全|日韩欧美卡一卡二卡新区|熟妇性饥渴一区二区三区|久久久久无码精品国产AV|欧美日韩国产va在线观看|久久精品一本到99热动态图|99国产精品欧美一区二区三区

    1. <track id="5d89u"><dl id="5d89u"><delect id="5d89u"></delect></dl></track>

      • <i id="5d89u"><ins id="5d89u"></ins></i>

        
        

        <source id="5d89u"></source>
        您現在的位置是: 創(chuàng)投 > > 正文

        【全球時快訊】GAN卷土重來:10億參數的GigaGAN效果堪比擴散模型

        時間:2023-06-17 09:05:41 來源:程序員客棧 發(fā)布者:DN032


        (資料圖片)

        點藍色字關注“機器學習算法工程師”

        設為星標,干貨直達!

        自從 DALL·E 2 之后,在圖像生成方面擴散模型替代GAN成了主流方向,比如開源的文生圖模型stable diffusion也是基于diffusion架構的。近日, Adobe研究者在論文Scaling up GANs for Text-to-Image Synthesis提出了參數量為10億(1B)的GAN模型:GigaGAN,其在文生圖效果上接近擴散模型效果,而且推理速度更快,生成512x512大小圖像只需要0.13s,生成16M像素圖像只需要 3.66s。同時GigaGAN也支持latent空間的編輯功能,比如latent插值,風格混合,以及向量運算等。

        GigaGAN改進了StyleGAN架構,采用兩階段訓練策略:一個是64x64的圖像生成器和一個512x512的圖像超分2器,其圖像生成器架構如下所示(這里也是采用CLIP text encoder來引入text condition):GigaGAN在 LAION2B-en和 COYO-700M數據集上訓練,其在COCO數據集上的FID達到9.09,超過stable diffusion 1.5,推理速度比stable diffusion快20倍多(2.9s vs 0.13s):GigaGAN除了文生圖能力,還可以實現可控的合成,比如風格混合,如下圖所示:更多效果圖和技術細節(jié)見論文https://arxiv.org/abs/2303.05511和網站https://mingukkang.github.io/GigaGAN/

        標簽:

        搶先讀

        相關文章

        熱文推薦

        精彩放送

        關于我們| 聯系我們| 投稿合作| 法律聲明| 廣告投放

        版權所有© 2011-2023  產業(yè)研究網  m.www-332159.com

        所載文章、數據僅供參考.本站不作任何非法律允許范圍內服務!

        聯系我們:39 60 29 14 2 @qq.com

        皖ICP備2022009963號-13


        措美县| 大丰市| 临沧市| 侯马市| 贺州市| 晋城| 常州市| 建阳市| 桐柏县| 嘉荫县| 平乐县| 布拖县| 岳阳县| 青阳县| 湟源县| 红桥区| 林甸县| 龙井市| 清水河县| 河曲县| 太仓市| 南岸区| 锦屏县| 江城| 乌拉特中旗| 长寿区| 华池县| 西贡区| 宣化县| 河池市| 安阳县| 常山县| 比如县| 高雄县| 丹棱县| 天等县| 湖南省| 平利县| 赫章县| 东乌珠穆沁旗| 堆龙德庆县|