-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
文心大模型ai繪畫網(wǎng)站免費(fèi)(文心ait)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于文心大模型ai繪畫網(wǎng)站免費(fèi)的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
2023新版文章智能生成器,能給你生成想要的原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端,官網(wǎng):https://ai.de1919.com
本文目錄:
一、ai繪畫后天看的見原圖嗎?
看不到原圖
1. 文本生成圖像(Text2image)
這是最近最火的類型。其中它們很多用的是diffusion model(擴(kuò)散模型),有的AI模型還會加超分辨率重建模型,增強(qiáng)清晰度。
在使用這類模型時,你需要輸入prompt,也就是你對希望產(chǎn)生的圖像的描述。有的模型還支持初始圖片,AI的會基于你指定的圖片開始創(chuàng)作。多數(shù)是僅支持英文的,不過也有支持中文的。
這里介紹幾個大家上手就能用的:
ERNIE-ViLG 文生圖
這是中文領(lǐng)域內(nèi)比較不錯的文生圖模型。
文心大模型
wenxin.baidu.com/moduleApi/ernieVilg
示例作品:
Midjourney:
非開源,需要你加入Discord小組給機(jī)器人發(fā)送prompt,機(jī)器人給你返回結(jié)果
Midjourney
www.midjourney.com/home/
這里展示用midjourney畫出來的效果。對于結(jié)果,midjourney也提供超分辨率重建,提升圖片清晰度。
Dream by wombo :
可以說是最簡單的了,我不用介紹,大家點開就會用
https://app.wombo.art/
app.wombo.art/
畫出來的效果
Stable Diffusion:
最近最火的繪畫AI之一。在線demo:
Stable Diffusion - a Hugging Face Space by stabilityai
huggingface.co/spaces/stabilityai/stable-diffusion
繪畫效果
源碼:
GitHub - CompVis/stable-diffusion
github.com/CompVis/stable-diffusion
Dalle-mini:
demo:
DALL·E mini by craiyon.com on Hugging Face
huggingface.co/spaces/dalle-mini/dalle-mini
源碼:
https://github.com/borisdayma/dalle-mini
github.com/borisdayma/dalle-mini
畫作展示:
適合畫場景
不太適合畫生物
Disco Diffusion
在之前這個回答里面有詳細(xì)的介紹??梢灾付╥nit_image。Disco Diffusion需要跑代碼,但不一定需要看懂,你知道改哪里就行了。
Disco Diffusion 體驗如何?你用它跑出了哪些圖?
267 贊同 · 29 評論回答
我用prompt「concept art, matte painting, in the rainy streets of a cyberpunk city at night, domination of a tall dark, robot wind sorcerer with glowing eyes and a cape, artstation, Greg Rutkowski」,可以畫出這樣的畫作
Stable Diffusion,Disco Diffusion, Dalle-mini之間的比較:
又來測評一個最近挺火的 # 人工智能 # #A…www.zhihu.com/pin/1547932185491038208
www.zhihu.com/pin/1547932185491038208
Clip-GEN
沒有demo,不過提供了源碼。
GitHub - HFAiLab/clip-gen: CLIP-GEN: Language-Free Training of a Text-to-Image Generator with CLIP
github.com/HFAiLab/clip-gen
2. 風(fēng)格遷移(style transfer)
風(fēng)格遷移就是把圖片A按照圖片B的風(fēng)格改畫,但圖片A的主體不變。
Fast Neural Style Transfer
https://huggingface.co/spaces/aravinds1811/neural-style-transfer
huggingface.co/spaces/aravinds1811/neural-style-transfer
畫作參考:
Neural Style Transfer
這個名字沒起好,這個模型把前面講到的文本生成圖片和風(fēng)格遷移融合在了一起。
Neural Style Transfer - a Hugging Face Space by NeuralStyleTransfer
huggingface.co/spaces/NeuralStyleTransfer/neural-style-transfer
生成結(jié)果示例:
3. 超分辨率(superresolution )/ 圖片上采樣(Image Upsampling)
又稱圖片修復(fù),大家可以看到很多老照片修復(fù)就是用超分辨率AI修復(fù)的。這里介紹一些
Real-ESRGAN
demo:
https://huggingface.co/spaces/akhaliq/Real-ESRGAN
huggingface.co/spaces/akhaliq/Real-ESRGAN
代碼:
GitHub - xinntao/Real-ESRGAN: Real-ESRGAN aims at developing Practical Algorithms for General Image/Video Restoration.
github.com/xinntao/Real-ESRGAN
效果測試
看起來修復(fù)動畫效果更好
SwinIR
demo地址:
https://huggingface.co/spaces/akhaliq/SwinIR
huggingface.co/spaces/akhaliq/SwinIR
生成效果:
AI創(chuàng)作的思路
這里順便講講我使用AI創(chuàng)作的思路吧。
思路一:臨摹
如果僅僅給AI一個文字描述,輸出的風(fēng)格可能不好控制,雖然可以在文本里加一些風(fēng)格的描述詞,但是否感覺就是沒有藝術(shù)的感覺?不要緊,直接在文本中告訴AI:
你需要模仿哪個網(wǎng)站的作品。這里總結(jié)出了一些我個人感覺很好用的網(wǎng)站關(guān)鍵詞: on pixiv(日式動漫風(fēng)), on artstation(科幻插畫風(fēng)), on 500px(攝影大片風(fēng))
或者模仿哪個藝術(shù)家的作品。直接在文本中加入 by xxx就行了。
例如我用prompt「a castle in the rainforest, trending on artstation」,就能畫出這樣的效果
這個列表提供了一些藝術(shù)家的名字及其藝術(shù)風(fēng)格
Disco Diffusion 70+ Artist Studies
weirdwonderfulai.art/resources/disco-diffusion-70-plus-artist-studies/
這個網(wǎng)站可以輔助你生成prompt,包括風(fēng)格,藝術(shù)家名字等等。
promptoMANIA:: prompt builder
promptomania.com/prompt-builder/
思路二:AI根據(jù)描述作畫 -> 風(fēng)格遷移-> 超分辨率
先給文本生成圖像的模型一個你想要的輸入,然后把輸出作為超分辨率模型的輸入。如果你要控制風(fēng)格,你可以在文本里加一些風(fēng)格的描述詞。
如果風(fēng)格描述依然不能打造出你想要的風(fēng)格,可以試試把生成的圖片輸入到風(fēng)格遷移AI中,產(chǎn)生新的圖片。
如果你覺得生成的畫作太模糊,可以將輸出輸入到超分辨率模型。
二、文心大模型補(bǔ)全了哪幅作品
文心大模型補(bǔ)全了《富春山居圖》。
文心大模型“補(bǔ)全”傳世名畫《富春山居圖》殘卷,并題詩一首成為一大矚目亮點,分隔三百年的山水合而為一,“一峰一狀百樹迎,天水合璧兩岸情?!痹诎俣華PP搜索“富春山居圖”,每個人都可以參與《富春山居圖》的“虛擬補(bǔ)全”,創(chuàng)作屬于自己的《富春山居圖》。
AI深耕,萬物生長”。正如王海峰所說,“人工智能現(xiàn)在已經(jīng)遍地開花,成為新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量。既能夠支持人類對星辰大海的探索,也在實實在在改善人們的生產(chǎn)生活,賦能千行百業(yè),惠及千家萬戶。”
作為“智能時代的操作系統(tǒng)”,百度飛槳集深度學(xué)習(xí)框架、產(chǎn)業(yè)級模型庫,以及豐富的開發(fā)套件和工具組件為一體,持續(xù)降低門檻,支持企業(yè)和廣大開發(fā)者開展技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用。同時,百度飛槳是開源開放的,與廣大開發(fā)者一起共建繁榮的AI生態(tài),賦能千行百業(yè)。目前,飛槳已凝聚477萬名開發(fā)者,據(jù)IDC報告,穩(wěn)居中國深度學(xué)習(xí)平臺市場綜合份額第一。
三、現(xiàn)在市面上的AI繪畫工具,哪家比較便宜?
這是我整理的目前國內(nèi)比較熱門的幾家AI繪畫軟件的價格,給你參考:
文心一格:目前免費(fèi),不過有消息近期也要收費(fèi)了,具體收費(fèi)政策還不清楚。
6pen:有免費(fèi)次數(shù)+收費(fèi),生成一副512*512的圖,要花費(fèi)2點數(shù),需要0.2元-0.5元;
盜夢師:有免費(fèi)次數(shù)+收費(fèi),生成一副512*512的圖,要花費(fèi)2盜夢星,需要0.2元-0.6元;
愛作畫:有免費(fèi)次數(shù)+收費(fèi),生成一副512*512的圖,要花費(fèi)1個愛幣,需要0.1元-0.2元
四、AI繪畫火了!它“站上風(fēng)口”,互聯(lián)網(wǎng)巨頭紛紛布局!究竟是藝術(shù)還是生意?
我個人認(rèn)為AI繪畫是生意,因為現(xiàn)在的AI繪畫可還沒有達(dá)到藝術(shù)的級別,只能當(dāng)做是一門生意。
怎么說呢,現(xiàn)階段的AI繪畫,只能是生意,根本不可能是藝術(shù)!AI繪畫這段時間之所以這么火,還不是因為今年九月份的谷歌開發(fā)者大會,谷歌推出了一個相較成熟(是相對成熟!并不是絕對成熟,因為谷歌的AI繪畫模式吊打其它的AI繪畫模型,所以才叫它相對成熟)的AI繪畫模型Parti,所以才會讓AI繪畫這么火。但即使是谷歌的AI繪畫模式Parti,其畫出來的畫還是有很大的問題,壓根沒辦法代替畫師,很多人還說畫師會被代替,完全是搞笑的。我自己在谷歌開發(fā)者大會上都玩了好幾次這個Parti模型。說句實在的,還是有很大的問題,還需要持續(xù)優(yōu)化。
有一說一,AI繪畫的技術(shù)還有待進(jìn)步,現(xiàn)在只能當(dāng)做是生意,未來也會是生意。AI繪畫目前還是比較拉胯的,我們不要過度緊張,現(xiàn)階段的AI繪畫根本沒辦法具體繪畫出你想要的東西,你給它幾個關(guān)鍵字,它只能畫出個大概的。我可以告訴你AI繪畫的原因。首先,工程師會設(shè)計一個AI繪畫模型,然后拿一大堆的畫作打上相應(yīng)的標(biāo)簽給AI模型去“學(xué)習(xí)”,利用神經(jīng)網(wǎng)絡(luò)技術(shù),讓AI繪畫模型自行優(yōu)化,優(yōu)化到一個程度就可以推出使用了,這次的谷歌Patri模型就是這么來的。所以說白了,現(xiàn)在的AI繪畫,就是基于已有畫作進(jìn)行模仿,完全談不上是藝術(shù),因為抄襲可不是藝術(shù)!
總的來說,AI繪畫不管是現(xiàn)在還是未來,都只能是一門生意,因為AI繪畫沒有自主性,一切畫作都是基于已有畫作生成的。
以上就是關(guān)于文心大模型ai繪畫網(wǎng)站免費(fèi)相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
文心大模型ai繪畫網(wǎng)站免費(fèi)(文心ait)
中芯國際招聘技術(shù)員(中芯國際招聘技術(shù)員怎么樣)