日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      AI領(lǐng)域的賽博佛祖,他的名字,叫張呂敏。

      發(fā)布時(shí)間:2024-06-04 14:30:27 編輯: 來源:
      導(dǎo)讀 相信很多大家對(duì)AI領(lǐng)域的賽博佛祖,他的名字,叫張呂敏。還不知道吧,今天菲菲就帶你們一起去了解一下~.~! 前兩天,AI繪圖圈的賽博佛祖張呂...

      相信很多大家對(duì)AI領(lǐng)域的賽博佛祖,他的名字,叫張呂敏。還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      前兩天,AI繪圖圈的賽博佛祖張呂敏,又出手了,發(fā)了一個(gè)挺牛逼的新項(xiàng)目,叫Omost。

      簡(jiǎn)而言之,Omost的作用就是,把簡(jiǎn)單的一句話,擴(kuò)展成非常牛逼、詳細(xì)且精準(zhǔn)的Prompt,然后挨個(gè)畫出各種不同的區(qū)域,最后合成在一起。

      注意,是合成,所以精準(zhǔn)可控能力極強(qiáng)。

      非常牛逼的自動(dòng)繪圖的Agent,從此,人人都可以不被所謂的Prompt困擾,普通人用一句話,也能生成很不錯(cuò)的圖片。

      有一個(gè)東西跟Omost用的是同樣的技術(shù)路線,它叫Dalle3。

      但是,Dalle3畢竟是OpenAI的玩意,你只能付費(fèi)氪金用,沒有開源。

      但是Omost,開源。

      我的小伙伴@祁玨瑜第一時(shí)間做了一個(gè)本地整合包扔給了我,在我玩了2天后,只能感嘆一句:

      太強(qiáng)了。

      比如我想畫一個(gè)飛船,我就在輸入框中直接輸入“太空中的未來飛船”,他就會(huì)開始哐哐給我寫代碼。

      這些代碼可能很多朋友看不懂,我翻譯成中文的你們就知道了。

      可以理解成把畫面拆成了了九份,九宮格,畫面中心是什么,畫面左上方是什么,右下方是什么,然后挨個(gè)去繪制,最后合在一起。

      當(dāng)把所有的代碼輸出完后,我們直接點(diǎn)渲染就行,一幅飛船圖就出來了~

      也可以跟Dalle3一樣,再進(jìn)行對(duì)話式的區(qū)域修改,比如把背景從太空換成海洋等等。

      但是目前還沒法接入到SD生態(tài)里去,大模型也是封裝好的。

      大語言模型用的是Llama3-8b,繪圖模型用的是RealVisXL V4.0。

      本地有8G顯存就能跑起來。

      整合包我扔公眾號(hào)后臺(tái)了,對(duì)著公眾號(hào)私信“O”這個(gè)英文字母就有。下載下來解壓完后,第一次先運(yùn)行env.bat,然后再運(yùn)行run.bat就行了。以后每次打開,就只需要運(yùn)行一下run.bat。

      不過Omost畢竟開源了,肯定會(huì)有無數(shù)大佬,基于Omost上進(jìn)行魔改,接入到WebUI和ComfyUI也肯定指日可待。

      Omeost強(qiáng)是強(qiáng),但是讓我更感慨,覺得更強(qiáng)的,是Omeost的作者。

      賽博佛祖,張呂敏。

      可能有些小伙伴對(duì)這個(gè)人名非常陌生,但是如果我說一個(gè)他最著名的開源項(xiàng)目,相信只要是玩AI繪圖的,肯定都不會(huì)陌生了。

      那個(gè)項(xiàng)目,叫ControlNET。

      讓AI生圖實(shí)現(xiàn)多種手段自主可控,一舉將SD生態(tài)推向了繁榮,讓AI繪圖進(jìn)入N多B端工作流,實(shí)現(xiàn)全面商業(yè)化的始作俑者。說它是SD生態(tài)最大的功臣也不為過。

      這些,全都是ControlNET干的,可以說,ControlNET是AI行業(yè)精準(zhǔn)控圖的爹。

      而張呂敏,是ControlNET的爹。

      而張呂敏的工作,除了ControlNET這種爆炸性的項(xiàng)目之外,還有面向普通人的傻瓜且小白的AI繪圖產(chǎn)品Fooocus,開源的。

      后面又發(fā)了一個(gè)Fordge UI,對(duì)原生的SD WebUI推理進(jìn)行加速等各方面優(yōu)化。在6G低顯存上可以提高60-75%的生成速度,8G顯存上可以提高大約30~45% 的速度。讓AI繪圖的門檻進(jìn)一步被拉低。

      還有LayerDiffusion,一個(gè)可以用AI直接生成原生的帶有透明背景的PNG圖片的插件,效果比生產(chǎn)完再用PS啥的摳圖的效果完美多了,甚至連玻璃的透明效果都能直接生成出來,重點(diǎn)還是:開源的。

      IC-Light,可以重新打光,讓人物和背景光線完美融合,實(shí)現(xiàn)主體與背景迅速統(tǒng)一在同一光源,還是:開源的。

      等等等等。

      他在Github上,有無數(shù)的star,而頭像,是一個(gè)很反差很喜感的英短。

      可以說,張呂敏他本人,就是整個(gè)AI繪圖領(lǐng)域的,賽博佛祖。

      本人也非常的年輕,2021年本科畢業(yè)于蘇州大學(xué),現(xiàn)在在斯坦福大學(xué)計(jì)算機(jī)科學(xué)專業(yè)讀博。

      但是他,在18年,可能還沒進(jìn)入大學(xué)校園時(shí),就已經(jīng)在研究人工智能了。

      18年,他發(fā)了兩款A(yù)I繪圖產(chǎn)品,一個(gè)叫Mangacaft,給黑白漫畫AI一鍵上色。一個(gè)叫Style2Paints,給線稿用AI一鍵上色。

      在19年,我跟Style2Paints,還有過一段很有趣的交集。

      那時(shí)候在公司,我們?cè)O(shè)計(jì)團(tuán)隊(duì)發(fā)起了一個(gè)項(xiàng)目,是做一個(gè)小游戲,類似于王權(quán)那種左滑右滑做抉擇的。想法很美好,但是現(xiàn)實(shí)很骨感,游戲卡牌的插圖,我們?nèi)米约寒?,有整整將?00張。

      那時(shí)候沒有什么AI,真的全得靠人。

      我們的幾個(gè)插畫師,不眠不休肝了一兩個(gè)禮拜,肝出來了近400張線稿,然后我們對(duì)著這400張線稿犯了難,畢竟還要上色。。。那是一個(gè)比畫線稿還恐怖的工作。

      我一度覺得這事不該人干,于是就去網(wǎng)上翻,翻到了lks的視頻,他推薦了一個(gè)很有趣的AI上色工具,就叫:Mangacaft。

      我順著這個(gè)產(chǎn)品,找到了張呂敏的Github,找到了他的符合我需求的另一款線稿AI上色工具:Style2Paints。

      然后用這個(gè)產(chǎn)品,就花了幾天時(shí)間,幫我直接搞定了屬于我的所有的上色任務(wù),然后,開開心心的摸了很多天的魚。

      那時(shí)候,我還不知道他叫張呂敏,那個(gè)時(shí)候,我也更是想象不到,6年后的今天,全世界都知道了他的名字,他成了我們心中的,神。

      這六年,他的初心,好像也從來沒有變過。

      六年前,他的Mangacaft和Style2Paints就是在線服務(wù)免費(fèi)給大家用。

      而Mangacaft,收益很凄慘。

      他也有過迷茫。

      也有抓耳撓腮的時(shí)候。

      網(wǎng)站關(guān)了開,開了關(guān),但是還是一直在開心的做著自己喜歡的事情。

      就這樣,一直做,一直做。

      然后,他做出了ControlNET、做出了LayerDiffusion、IC-Light、Fooocus,也做出了Omost。

      現(xiàn)在,他成了張呂敏,成了我們心中的,賽博佛祖。

      18年,24年。

      我非常佩服他,更是非常的羨慕他,他能做到那么多人都做不到的事,把心中的美好帶給所有人,那一股子初心和激情,我非常的羨慕。

      我也想成為那樣的人,但是也清楚,我實(shí)在太菜了。所以也只能做一點(diǎn),我自己力所能及的小事,去盡可能的追逐他們的背影吧。

      最后,我想用張呂敏曾經(jīng)轉(zhuǎn)發(fā)過的一句話做結(jié)尾,那句話,最近也挺火。

      為天地立心,為生民立命,為往圣繼絕學(xué),為萬世開太平。

      我想,這就是,最大的意義吧。

      以上就是關(guān)于【AI領(lǐng)域的賽博佛祖,他的名字,叫張呂敏?!康南嚓P(guān)內(nèi)容,希望對(duì)大家有幫助!

      免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

      熱點(diǎn)推薦

      精選文章