本次主要更新,取消了原本的中斷訓(xùn)練Loss值并接的問題,我們發(fā)現(xiàn),當(dāng)loss值并接了,中斷學(xué)習(xí)訓(xùn)練并不能很好的繼續(xù)收斂loss值,導(dǎo)致很多用戶認(rèn)為模型訓(xùn)練無法收斂,可能模型無法學(xué)習(xí)新知識。
在Pro 1.8.3版本公告中,有說明中斷后的Loss值并接算法,屬于測試版,經(jīng)過這么久,我們發(fā)現(xiàn)該算法并不是很好的服務(wù)用戶,在1.9.3版本后,我們將徹底取消中斷后的Loss值并接,還是采用NLP訓(xùn)練標(biāo)準(zhǔn),每當(dāng)開始訓(xùn)練,Loss值恢復(fù)初始狀態(tài),并根據(jù)每次訓(xùn)練單獨計算,這樣就能確保直觀的了解模型的學(xué)習(xí)成果和模型收斂問題。
我們發(fā)現(xiàn),較多用戶在模型訓(xùn)練結(jié)束或者訓(xùn)練學(xué)習(xí)中途暫停訓(xùn)練后,想接著提升模型能力,并接著訓(xùn)練的時候發(fā)現(xiàn)學(xué)習(xí)速度增長過高的問題,這是一個有趣的現(xiàn)象,但是這也是一個正常的表現(xiàn),各位Pro用戶不必?fù)?dān)心是否有異常。
初始訓(xùn)練,在一個訓(xùn)練周期內(nèi),預(yù)訓(xùn)練模型中,它需要加載各類初始參數(shù)以及訓(xùn)練數(shù)據(jù)集等大量數(shù)據(jù),需要加載預(yù)訓(xùn)練模型的初始模型權(quán)重,所以并發(fā)會占用更大的資源去訓(xùn)練。
但是在訓(xùn)練一定的周期后,中斷后繼續(xù)訓(xùn)練,是從你已成功訓(xùn)練保存的模型中,繼續(xù)加載模型權(quán)重和參數(shù),這樣就減輕了模型負(fù)重能力,同時也釋放了更大的算力能力讓模型繼續(xù)學(xué)習(xí)訓(xùn)練下去,這樣的情況就會讓每秒學(xué)習(xí)速度得到一定的上升。
所以,當(dāng)您繼續(xù)加載訓(xùn)練,如速度有明顯上升,不必?fù)?dān)心,這是正常表現(xiàn)。但是建議還是盡可能保持模型在一個周期內(nèi)完成初始訓(xùn)練。
]]>2023年9月26日,新增模型成本計算器工具,本文底部有下載鏈接。
模型訓(xùn)練成本計算其實并不難,我們閃豚速寫訓(xùn)練的時候,現(xiàn)在能直接計算大概一輪訓(xùn)練時長,僅需要計算,設(shè)備損耗,電費,數(shù)據(jù)費用就能得到一個模型的成本了。
下面教大家如何去計算成本:
模型成本公式:
顯卡發(fā)行價格 x 0.0005x訓(xùn)練時長
語料費用:
范圍語料:每篇0.02元x20%
半精語料:每篇0.04元x20%
全精語料:每篇0.1元x20%
(這里的20%指的是你語料的成本,因為數(shù)據(jù)是最貴的。)
加上電腦其他硬件損耗
加上電費
公式:顯卡損耗+語料數(shù)據(jù)+其他硬件損耗+模型訓(xùn)練電費=成本費用
就是最終的模型成本費用。
所以建議大家如果訓(xùn)練的模型需要上傳交易,可以參考以上成本計算,其次,語料數(shù)據(jù)單獨交易,也可以參考以上語料單篇價格。
可以下載使用最新發(fā)布的模型訓(xùn)練成本計算器
]]>https://www.bilibili.com/video/BV1gM4y1Y7BG/?vd_source=a4ff7b9db0da5101dfda4d7ca888a089
可以復(fù)制到網(wǎng)頁或者bilibili客戶端進行播放,也可以點擊下方公眾號的視頻進行觀看!
本視頻主要演示,當(dāng)下AI產(chǎn)品生成出的內(nèi)容質(zhì)量和AI檢測問題。閃豚速寫私有化模型生成的內(nèi)容,基本上都是過檢測,不用擔(dān)心被檢測是AI生成的!
首先,我們在4414找到了一位熱心的用戶教大家如何更好地使用GPT生成更好的內(nèi)容,我們首先檢測一下該用戶手寫的內(nèi)容去檢測。
手寫的內(nèi)容檢測出來是人工,而不是機器。
接下來我們檢測一下按照該用戶的提示,GPT生成的內(nèi)容。
一下就檢測出來是機器生成的!
我們試試這一篇:
也是一樣。一下就檢測出來了。
我們再試試必應(yīng)的吧!
也是一樣的!
我們試試我們閃豚速寫基礎(chǔ)模型生成的:
也是一樣的,基礎(chǔ)通用模型也是能檢測出來!
我們先造一下生成數(shù)據(jù)表,然后用私有數(shù)據(jù)訓(xùn)練的模型生成測試一下!
生成出來了,我們?nèi)z測一下。
過檢測!提示是人工生成的!
所以大家知道為什么要選擇可私有化部署的AI產(chǎn)品嘛~
好處就是,領(lǐng)域不限制,模型不限制,生成數(shù)據(jù)不限制!
還沒沖的寶子們,抓住這個機會,沖吧!
祝大家使用我們“閃豚速寫”個個發(fā)財致富!做網(wǎng)站的朋友們,個個速升權(quán)8!
]]>①.優(yōu)化生成功能性能
②【新增】所有生成功能新增最低字?jǐn)?shù)限制,自由設(shè)置低于多少字重新生成。
【新增】生成重試次數(shù)。如果生成任務(wù)重試N次后。會保存字?jǐn)?shù)不足的文章。
③:【新增】圖文生成功能新增img標(biāo)簽限制,現(xiàn)在可自由設(shè)置生成img標(biāo)簽的數(shù)量了。默認(rèn)為生成3個img標(biāo)簽。
④:優(yōu)化操作體驗,不再需要去原代碼文件里面找位置修改配置了,直接運行程序即可。(有效防止代碼勿改)
⑤:優(yōu)化生成配置,現(xiàn)將統(tǒng)一只使用加載TXT數(shù)據(jù)表進行批量原創(chuàng)文章生成,放棄之前的CSV數(shù)據(jù)表生成了。(由于不同電腦環(huán)境,程序提取的CSV數(shù)據(jù)表,如果經(jīng)過編輯后,會自動根據(jù)電腦環(huán)境重新保存未知編碼,導(dǎo)致AI生成模塊無法識別,經(jīng)協(xié)商,取消對CSV數(shù)據(jù)表的支持載入。數(shù)據(jù)提取工具將繼續(xù)保留csv數(shù)據(jù)表的輸出功能。也會保留一份普通加載CSV數(shù)據(jù)表批量生成功能。)
⑥:【發(fā)布新的收費工具】將發(fā)布一款新的收費小工具,根據(jù)自己指定關(guān)鍵詞,生成新的標(biāo)題和起始句,不需要去提取原始語料數(shù)據(jù)了。(由于該工具非項目必要使用,而且是某用戶提出定制化開發(fā),最終協(xié)商不獨享使用,走通用開發(fā)流程,所以需對外正常收費。)
首先給大家科普一下:深度學(xué)習(xí)最需要的性能是GPU也就是顯卡性能,理論上在同等條件下GPU性能越高,深度學(xué)習(xí)的效率越高。
但這其中也有一個很大的誤區(qū),就是電腦性能是一個整體并不是由單一硬件所決定的,是一個木桶效應(yīng)。
當(dāng)GPU性能達(dá)到一定高度之后,其他硬件性能沒有跟上,再好的GPU也帶來不了性能的提升。
01那么應(yīng)該如何選購深度學(xué)習(xí)需求的臺式電腦主機呢?
一、首先,要遵循這個原則:
GPU>CPU≈主板(CPU主板相輔相成)>內(nèi)存>硬盤>電源>機箱(裝的下就行)
02確定預(yù)算
二、確定預(yù)算:
根據(jù)自己預(yù)算來搭配整機。千萬不要亂聽別人說,這個配置還不如加點前上更好點的配置,這樣下來預(yù)算遠(yuǎn)遠(yuǎn)會超你很多。
03確定性能需求
三、確定性能需求:
一般來說都是希望在預(yù)算內(nèi)獲得最高的性能。但也有特例,比如發(fā)現(xiàn)想要達(dá)到預(yù)期的性能,發(fā)現(xiàn)已經(jīng)超預(yù)算了。那么就要重新衡量是否有必要增加預(yù)算或者減少性能預(yù)期。
04目前消費級顯卡舉例
四、我們以當(dāng)下主流消費級的GPU顯卡基本的性能為例:
3060=2060s
1080ti=2080
3060ti=2080super
3070=2080ti
3070ti>2080ti
3080
3080ti
3090
然后我們來看看顯卡顯存的選擇
3090 24G
3070ti 16G
3080ti 12G
3080 10G
3080 12G
3060 12G
2060 12G
2080ti 11G
1080ti 11G
按照深度學(xué)習(xí)的標(biāo)準(zhǔn)來說,同等條件,顯存越大,有利條件越大,所以選擇GPU的時候,盡量是優(yōu)先考慮顯存大的GPU來跑模型訓(xùn)練。
然后我們來看看消費卡的
RTX30系,最低入門就是3060顯卡了,屬于嘗鮮,剛了解NLP用來學(xué)習(xí)學(xué)習(xí)用的。
RTX3060-RTX3070同級別屬于入門:深度學(xué)習(xí)專業(yè)的學(xué)生或從業(yè)者;
RTX3080、RTX3090及以上才能算是優(yōu)秀(比如 RTX8000):深度學(xué)習(xí)的專業(yè)用戶;
追求滿分極致性能的就要多個GPU并行的工作站:深度學(xué)習(xí)領(lǐng)域大型實驗室。
注意,windows平臺是不支持我們這個AI-CPM項目多卡學(xué)習(xí)的,需要用Linux平臺,多卡推薦是ubuntu。05合理的硬件搭配
五、選擇合理硬件:
上面已經(jīng)說了電腦是一個整體,是要遵循木桶效應(yīng)的,因此合理的硬件組合就非常重要。
在選擇硬件之前,我們先把電腦硬件對深度學(xué)習(xí)性能影響的重要程度排個序:
GPU>CPU≈主板(CPU主板相輔相成)>內(nèi)存>硬盤>電源>機箱(裝的下就行)
再以這個順序去選擇硬件,并控制整體預(yù)算。
再者,注意內(nèi)存這塊,頻率越高,內(nèi)存越大,優(yōu)勢也會大一些。
其次,如果你是多卡訓(xùn)練,上3090的話,風(fēng)冷應(yīng)該是壓不住,需要水冷了。單卡3090風(fēng)冷是沒問題。
06找找鋪子的AI-CPM對電腦配置要要求
GPU:1080ti起步(但不是非要1080ti,其實1050ti也可以,只要你能忍受速度慢,我們建議是最低1080ti起步了)
CPU:只要能帶動GPU的性能轉(zhuǎn)運就行,無需考慮GPU的圖形輸入(例如,你上3090,不需要i7-12700kf或者i9-12900kf等)
內(nèi)存:16G以上(內(nèi)存頻率3200及以上)
硬盤:推薦是NVMe SSD,M.2接口的??臻g最少預(yù)留150G以上。
電源:根據(jù)顯卡和電腦其他功耗來
]]>視頻無法播放的話,可直接復(fù)制下方的URL鏈接到bilibili查看
https://www.bilibili.com/video/BV1yV4y177yy?vd_source=bd49e4c93a77d38c685b91def9fea151
對于我們剛了解這個項目的時候,想組建一臺煉丹設(shè)備,各種CPU、GPU、內(nèi)存條、外設(shè),等等等等設(shè)備,到底該怎么選?我們從最重要的設(shè)備開始講解——GPU!
顯卡(GPU)是AI深度學(xué)習(xí)的重要部件,比CPU重要很多很多。做AI訓(xùn)練不用GPU只用CPU顯然是愚蠢的。首先,CPU用來深度學(xué)習(xí)很慢,運算比GPU少很多倍。其次,CPU有CPU的事情,需要處理電腦各種進程線程。
如何選GPU來深度學(xué)習(xí)呢?注意這三點:
性價比、顯存、散熱。
其實,選來選去,適合AI訓(xùn)練的,也就幾款GPU就是了。你只需要考慮價格,散熱,用料就行。推薦是3風(fēng)扇版本,雙風(fēng)扇丐版實在不好說,因為在訓(xùn)練過程中,GPU基本是滿載運行,熱度很高,如果溫度超過85度以上,性能至少減少30%甚至更多。。。推薦以下幾款自選搭配
大顯存就這幾個:
3090 24G
3070ti 16G
3080ti 12G
3080 10G
3060 12G
2060 12G
2080ti 11G
1080ti 11G
注意:AI訓(xùn)練過程主要是吃顯存來跑數(shù)據(jù),所以推薦顯存越大越好。
需要注意的是,如果你想多卡訓(xùn)練,系統(tǒng)需要裝Linux系統(tǒng),Windows不支持多卡學(xué)習(xí)。
CPU不要太落后,現(xiàn)在主流的幾款型號都可以。比如:
I5的10系,11系。
I7的10系,11系。
基本對AI訓(xùn)練學(xué)習(xí)問題都不大,別太老款就行,當(dāng)處理器太舊,性能太低,顯卡卻是3090,這不小馬拉大車,扯嘛。
CPU發(fā)揮不了性能,顯卡也不能完全跑得起來呀。萬一跑兩下,直接死機,那還煉丹啥呢。
建議CPU6核以上均可。4核問題也不大。
其實在這塊,我認(rèn)為還是比較重要的。
當(dāng)有一塊好點的硬盤時,對數(shù)據(jù)存儲處理都很快。
比如你收集了500萬篇語料需要預(yù)處理,當(dāng)一塊普通的機械硬盤時,基本上會滿載運行,讀取基本上在100~200/s/文件。當(dāng)你用好的固態(tài)時,基本上速度在500~100/s/文件。
其次,需要AI訓(xùn)練學(xué)習(xí)時,硬盤大小建議最少是在150G以上的。
反正推薦是SSD,不推薦HDD
頂配的體驗就是NVMe SSD了,比一般SSD更流暢。
電源怎么選?
電腦內(nèi)所有設(shè)備功耗加起來,電源還要預(yù)留50~100W就行。
有一套計算方法:將電腦CPU和GPU的功率相加,再額外加上10%的功率算作其他組件的耗能,就得到了功率的峰值。
舉個例子:當(dāng)你GPU是350W時候,你CPU是150W,這兩項就是500W的電源了。這還是在起步運行狀態(tài)時,我們訓(xùn)練的時候基本需要滿載運行。加上其他電腦設(shè)備,最少推薦是650W,700W最佳。
散熱很重要!
CPU散熱,根據(jù)CPU來選就行。
主要講的是機箱散熱,建議是你機箱支持多少散熱風(fēng)扇,就全裝了吧,一個風(fēng)扇也就十來塊錢。買便宜的機箱散熱風(fēng)扇就行。
機箱?你喜歡啥樣就啥樣的,只要散熱通道好就行。
主要搭配適合你CPU的主板,不建議丐版,中檔甜品板就行了。
建議要Pcie x4卡槽的,GPU性能更佳!
想要AI訓(xùn)練生成行業(yè)原創(chuàng)文章?不要觀望了,早入行,早訓(xùn)練,早吃肉。
你還在觀望的時候,別人網(wǎng)站都權(quán)重6了!
我們不光只賣和部署AI原創(chuàng)文章生成項目。
我們還接語料收集,模型代訓(xùn)練等各種項目。
只要你有需求,萬一我們能搞定呢?何不來聊聊?
]]>“ AI-NLP簡單來說就是人與計算機的語言,讓計算機理解人的語言以及讓他學(xué)習(xí)和輸出”
01
—
AI-CPM是找找店鋪發(fā)布的一項NLP領(lǐng)域的學(xué)習(xí)項目,它基于Python3.6.3環(huán)境,Pytorch框架下的一款深度學(xué)習(xí)項目。該項目能實現(xiàn)程序化學(xué)習(xí)語料,自主輸出高質(zhì)量原創(chuàng)文章。
02
—
1.學(xué)習(xí)得到這套程序和技術(shù)后,你可以自己訓(xùn)練獨有行業(yè)的文章進行生成,原創(chuàng)率很高很高很高,搜索引擎收錄很好,從而提升網(wǎng)站排名等各項數(shù)據(jù)。
2.會學(xué)如何使用這套技術(shù)后,你可以應(yīng)用在你想應(yīng)用的任何領(lǐng)域上,效果都非常好。
3.當(dāng)然,你學(xué)會了你也可以二次銷售,只要你真正玩懂了,一切會變?nèi)菀灼饋怼?/p>
4.禁止應(yīng)用于畢業(yè)論文生成上。老老實實自己寫,不支持論文的生成!
題外話:大部分朋友們都是拿這套應(yīng)用來做網(wǎng)站,搞排名的,目前來說。效果還是非常好的。有一位不愿公開的朋友,分享了他用這套程序做網(wǎng)站的案例。
網(wǎng)站建成,模型訓(xùn)練,文章輸出生成。大概是花了一個來月的時間。
數(shù)據(jù)如下:
此網(wǎng)站他是六月上線的。我們項目推出是5月初。他是第一時間得知然后拿來應(yīng)用的。
這是2022年7月24日數(shù)據(jù)
這是站長之家的數(shù)據(jù)
這是愛站數(shù)據(jù)
這是5118數(shù)據(jù)
請教了該朋友做法,他的回答
申明:實際效果因素千千萬,不是說你用了我們這套應(yīng)用,一定就能做出權(quán)8的網(wǎng)站。網(wǎng)站排名影響因素很多很多,這套應(yīng)用只是能幫助你減少彎路,提高效率。而且AI-CPM輸出的質(zhì)量跟前期收集的訓(xùn)練語料,模型訓(xùn)練深度關(guān)系很大。
03
—
為什么要收集訓(xùn)練語料呢?
所有AI項目,人工智能,前提條件下,都是需要進行數(shù)據(jù)集訓(xùn)練的。我們這個項目也不例外。
收集語料訓(xùn)練相當(dāng)于是一本書,AI就是一個小孩子,從出生到上學(xué),他需要學(xué)習(xí)。那么我們的語料就是知識了,AI不斷學(xué)習(xí)知識,自主成長。學(xué)習(xí)完成后就能自主輸出了。
語料如何收集?
方法千千萬,只要你按項目格式收集回來的文本數(shù)據(jù),均可訓(xùn)練。
什么行業(yè)都可以嗎?
是的,你收集回來的語料是什么樣的。是什么行業(yè)的。最終這個模型訓(xùn)練出來的結(jié)果就是什么樣的。
04
—
模型就是根據(jù)你收集回來的語料,程序?qū)W習(xí)最終生成的模型,之后你可以加載這個模型上,生成無限篇你訓(xùn)練的行業(yè)文章。
我們程序訓(xùn)練處理邏輯如下:
語料收集整理→程序加載進行處理→生成預(yù)訓(xùn)練文件→程序加載預(yù)訓(xùn)練文件→開始訓(xùn)練→完成訓(xùn)練→模型輸出保存。
最后,在程序里設(shè)置加載這個模型,就可以生成文章了!
05
—
有要求的,門檻說高也高,說低也低。
首先對電腦硬件有要求:
如果想訓(xùn)練模型
1080顯卡起步,運行內(nèi)存16g,硬盤預(yù)留150G,建議win10,多卡訓(xùn)練需要linux系統(tǒng)。
單獨只想生成文章的話,1050顯卡都可以,
已測試,1050ti顯卡,500~1000字文章一天能生成2000-6000篇。
750ti顯存2g,生成500~1000文字文章1~2分鐘一篇。
如果不嫌棄慢CPU也可以生成文章,但是訓(xùn)練模型必須要顯卡。
因為AI運算是需要靠GPU計算能力來運行。CPU的計算能力比顯卡少很多倍。顯卡顯存越大,效率越高。
顯卡推薦:
入門1080顯卡,推薦3060,3080。預(yù)算充足請直接上3090顯卡。
注意:AMD顯卡不支持深度學(xué)習(xí)!需要NVIDIA顯卡的CUDA架構(gòu)支持。
06
—
聯(lián)系我們客服人員,店鋪下單即可。
我們會對你1對1遠(yuǎn)程部署學(xué)習(xí)環(huán)境和程序安裝。
我們程序沒做GUI界面封裝成EXE可執(zhí)行文件。項目直接在環(huán)境下,Pycharm里面跑就行,源碼無加密,二次開發(fā)更便捷,使用更方便。
我什么都不會能使用的?
可以的,我們遠(yuǎn)程部署后,會1對1電話語音+遠(yuǎn)程操作講解,會教你完全會使用這套項目。
我們這個項目會長期運營并更新下去,我們會優(yōu)先聽取AI私享會同學(xué)們的功能需求建議,會優(yōu)先開發(fā)。目前版本已經(jīng)不斷的更新下去了,具體可查看我們的更新進度報告文章。(公眾號底部菜單有更新公告)
AI私享會就是我們的會員服務(wù),可以長期免費持久的使用我們項目一切更新和衍生的功能項目。
可享受每月1~2次的新環(huán)境部署服務(wù)
無限次不限時的項目咨詢服務(wù)
可享受我們開發(fā)者的成功,比如:訓(xùn)練語料,訓(xùn)練完成的模型等等等等。
還有很多好處,慢慢公布。
07
—
普通版:988元(部署安裝+指導(dǎo))
可使用以下版本:
V1:中斷續(xù)寫功能(程序意外終止或者繼續(xù)訓(xùn)練恢執(zhí)行功能)
V2:批量生成功能(一鍵批量生成10000+篇原創(chuàng)文章)
普通版無法享受后續(xù)更新服務(wù),需要新功能時另付費。
更多根本版本請聯(lián)系客服
AI私享會:5500元(享受一切)
私享會價格會隨著功能更新,項目完善不斷上漲。具體實時費用請聯(lián)系客服。
一切問題均可聯(lián)系我們企業(yè)客服
08
—
雙標(biāo)題輸出
本文轉(zhuǎn)載于【找找鋪子AI-CPM】公眾號
原文鏈接:https://mp.weixin.qq.com/s/hsi8fTSXtWx0i-D81oisEQ
]]>