-
當前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
gpt2中文訓(xùn)練模型(gpt2中文生成訓(xùn)練)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于gpt2中文訓(xùn)練模型的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費在線使用,能給你生成想要的原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端,官網(wǎng):https://ai.de1919.com
本文目錄:
一、bigquant怎么調(diào)用gpt
BigQuant 是一個基于 Python 的量化交易平臺,可以通過編寫 Python 代碼來進行量化交易策略的研究和實現(xiàn)。如果想在 BigQuant 中調(diào)用 GPT 模型,您可以按照以下步驟操作:
1. 在 BigQuant 平臺上新建一個項目,并將 GPT 模型的代碼和訓(xùn)練好的模型文件上傳到項目的目錄中。
2. 在代碼中導(dǎo)入 GPT 模型,并調(diào)用模型進行預(yù)測。例如:
```python
import torch
from transformers import GPT2Tokenizer, GPT2LMHeadModel
tokenizer = GPT2Tokenizer.from_pretrained('gpt2')
model = GPT2LMHeadModel.from_pretrained('./model/') # './model/' 是你上傳到 BigQuant 項目中的 GPT 模型文件所在的路徑
# 要生成的文本前綴
text = '今天天氣怎么樣'
# 預(yù)測生成概率最高的詞,并將結(jié)果輸出到控制臺
input_ids = torch.tensor(tokenizer.encode(text)).unsqueeze(0)
with torch.no_grad():
outputs = model(input_ids, labels=input_ids)
loss, logits = outputs[:2]
pred = tokenizer.decode(logits[0].argmax(dim=-1).numpy())
print(pred)
```
在代碼中,我們首先導(dǎo)入了 GPT 模型所需的庫 torch 和 transformers(GPT2Tokenizer 和 GPT2LMHeadModel)。然后,我們使用 GPT2Tokenizer.from_pretrained 函數(shù)和 GPT2LMHeadModel.from_pretrained 函數(shù)分別加載了 GPT 模型的預(yù)訓(xùn)練權(quán)重和訓(xùn)練好的模型。接下來,我們定義了要生成文本的前綴,并使用模型進行預(yù)測。預(yù)測過程中,我們使用 torch.no_grad() 上下文管理器來避免計算梯度,以提高計算效率。最后,我們將預(yù)測的文本輸出到控制臺中。
請注意,由于 GPT 模型的計算要求較高,可能需要在 BigQuant 平臺上分布式計算才能獲得更好的效果。
二、chatgpt是強化學(xué)習嗎
ChatGPT 使用了一種叫“人類反饋強化學(xué)習(RLHF)”的訓(xùn)練方法,毫末智行數(shù)據(jù)智能科學(xué)家賀翔對鈦媒體APP解釋稱,GPT是一個大規(guī)模通用預(yù)訓(xùn)練語言模型,GPT1、2、3主要是參數(shù)規(guī)模的提升,ChatGPT主要是引入了人類反饋數(shù)據(jù)做強化學(xué)習。
這種方法的引入可以在訓(xùn)練中根據(jù)人類反饋,保證對無益、失真或偏見信息的最小化輸出。
恰好自動駕駛決策算法中也有一類叫做模仿學(xué)習,就是讓機器去學(xué)習不同場景下人類駕駛員是怎樣做的。
一般來說,人類司機的每一次接管,都是對自動駕駛策略的一次人為反饋;這個接管數(shù)據(jù)可以被簡單當成一個負樣本來使用,就是自動駕駛決策被糾正的一次記錄。同時也可以被當作改進認知決策的正樣本來學(xué)習。
“大數(shù)據(jù)、大參數(shù)的大模型能學(xué)到更多的潛在知識,包括不同的環(huán)境、不同的場景等,相當于學(xué)習到了大量的自動駕駛常識,這種常識對自動駕駛決策至關(guān)重要?!焙聊┲切袛?shù)據(jù)智能科學(xué)家賀翔對鈦媒體App表示。
也就是說,在自動駕駛研發(fā)的過程中采用人類反饋強化學(xué)習的思想,可以訓(xùn)練出模型來驗證、評價機器模型的輸出,使其不斷進步,最終達到人類的駕駛水平。
所以,可以說基礎(chǔ)能力的提升,帶來了想象力及可應(yīng)用場景的擴張。但目前階段,我們?nèi)匀粺o法準確判斷以ChatGPT為代表的大模型會給自動駕駛帶來多大的變革,一位行業(yè)人士對鈦媒體App表示,通過大模型訓(xùn)練而來的優(yōu)秀泛化能力,可能讓世間再無corner case。
三、檢測中文是否由chatgpt生成
從大學(xué)教授,到Stack Overflow,可謂是苦ChatGPT久矣?,F(xiàn)在,無論是老師看到學(xué)生提交的論文,還是碼農(nóng)看到網(wǎng)上的代碼,都不敢確定作者是人還是AI。
OpenAI發(fā)布ChatGPT檢測器
它是一個經(jīng)過微調(diào)的GPT模型,可以推斷一段文本由AI產(chǎn)生的可能性。
有趣的是,ChatGPT也是基于GPT模型,用這個分類器檢測ChatGPT,堪稱左右互搏。
在訓(xùn)練上,這個模型采用的是同一主題下的人類手寫和AI生成的文本對。
用到的素材來自于維基百科數(shù)據(jù)集、2019年收集的WebText數(shù)據(jù)集,以及在訓(xùn)練InstructGPT時收集的一組人類演示。
體驗地址:https://platform.openai.com/ai-text-classifier
但是吧,這個正確率著實不高……
在評估「挑戰(zhàn)集」中的英語文本時,分類器只將26%的AI生成文本正確地歸類為「可能是AI寫的」(真陽性)。
此外,它還通過了美國醫(yī)學(xué)執(zhí)照考試、沃頓商學(xué)院MBA考試和4門法學(xué)院的考試,能力簡直要通天;美版「頭條」BuzzFeed宣布要用ChatGPT寫文的消息后,股價瘋狂暴漲119%。
而妙筆生花的文采,也讓ChatGPT被很多小哥奉為「撩妹神器」。

雖然做數(shù)學(xué)題不太靈,但想要讓它寫下一篇文采斐然、深情款款的情書,那可真是so easy。
雖然但是,可以看出,ChatGPT的文采相當不錯。論文、情書、小說,ChatGPT都不在話下。難怪大家都在瘋狂用ChatGPT「造文」。
四、GPT Understands, Too
傳統(tǒng)fine-tune(使用訓(xùn)練數(shù)據(jù)來微調(diào)模型參數(shù)),GPT在自然語言理解任務(wù)上未能取得很好的效果,關(guān)于NLU任務(wù)的一種新方法P-tuning,采用可訓(xùn)練的連續(xù)的 prompt embeddings。
實驗表明:
與 discrete prompts類似,僅對輸入進行修改,不同之處在于用differential output embeddings來代替常規(guī)的input embeddings
prompt可以非常靈活,可以插入到context x或者target y中
pseudo tokens(偽標記)
可以從原始詞表V中找到一個better continuous prompts。最后,利用下游損失函數(shù)L,可以對continuous prompts hi 進行differentially optimize
training continuous prompts 存在兩個問題
P-tuning中,使用promp編碼器(LSTM+RELU激活的兩層MLP)將hi建模為一個序列
知識探索
所有prompt search方法都需要一些額外的數(shù)據(jù)來訓(xùn)練或查找prompt。我們遵循AutoPrompt中的設(shè)置,作者從原始TRE-x數(shù)據(jù)集構(gòu)建了一個訓(xùn)練集,該訓(xùn)練集與測試集類似,但答案分布略有不同
在傳統(tǒng)的知識探索中,不允許通過fine-tune來改變預(yù)先訓(xùn)練好的模型參數(shù)。試圖評估語言模型在培訓(xùn)前學(xué)習了多少知識。然而,這項工作的基本方面是比較P-tuning和fine-tune,尤其是在像GPT這樣的單向語言模型上。特別感興趣的是以下問題:單向和雙向語言模型是否從P-tuning中獲得了類似的改進?
在知識探索方面,許多事實只能通過硬編碼,而不能通過語言模型進行推斷。參數(shù)的微調(diào)可能會導(dǎo)致遺忘。相反,P-tuning不會改變預(yù)先訓(xùn)練的模型的參數(shù),而是通過尋找更好的continuous prompt來存儲知識。此外,在Bert和GPT采用P-tuning存在明顯的差異,使用MP+FT進行微調(diào)非常有效,但是GPT并不像BERTs那樣從MP+FT中受益更多。P-tuning與單向語言模型表現(xiàn)出更好的親和力。在里面就更大的型號而言,例如具有110億個參數(shù)的MegatronLM2,雖然微調(diào)幾乎不起作用,但Ptuning仍然適用,并在LAMA上達到了最先進的水平。
WiC和MultiRC都有相對較大的train sets,標準fine-tune可以從更大的數(shù)據(jù)集中獲得比P-tuning更多的優(yōu)勢。相反,在低資源環(huán)境下,P-tuning更有益
在base模型的規(guī)模下,在7項任務(wù)中,有6項任務(wù)的gpt2-base的P-tuning相比優(yōu)于基于bert的模型的最佳結(jié)果,除了Wic。
與BERT-larger-base相比,帶有P-tuning的GPT2在7項任務(wù)中有4項任務(wù)顯示出優(yōu)勢
唯一的例外是WiC任務(wù),fine-tune取得最佳結(jié)果,推測這是因為詞義消歧任務(wù)不適用于prompt-based MLM prediction
用原始訓(xùn)練集中32個未使用的樣本構(gòu)建了一個新的開發(fā)集(Ddev32)設(shè)置公平比較之下,P-tuning在所有任務(wù)上都顯著優(yōu)于PET和PET best。更有趣的是,P-tuning甚至在7項任務(wù)中的4項任務(wù)上優(yōu)于GPT-3、PET(Ddev)和iPET(Ddev)。
盡管P-tuning在大多數(shù)任務(wù)中都能取得最佳效果,但在難以表述為完形填空問題的任務(wù)(例如WiC)中,微調(diào)的效果會更好
以上就是關(guān)于gpt2中文訓(xùn)練模型相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
中國作協(xié)為什么是正部級(中國作協(xié)為什么是正部級干部)