-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
如何用GPT寫論文(gpt2論文)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于如何用GPT寫論文的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、BERT詳解(附帶ELMo、GPT 介紹)
首先我會詳細(xì)闡述 BERT 原理,然后簡單介紹一下 ELMO 以及 GPT
BERT 全稱為 B idirectional E ncoder R epresentation from T ransformer,是 Google 以 無監(jiān)督的方式利用大量無標(biāo)注文本 「煉成」的語言模型,其架構(gòu)為 Transformer 中的 Encoder(BERT=Encoder of Transformer)
我在 Transformer 詳解 中已經(jīng)詳細(xì)的解釋了所有 Transformer 的相關(guān)概念,這里就不再贅述
以往為了解決不同的 NLP 任務(wù),我們會為該任務(wù)設(shè)計一個最合適的神經(jīng)網(wǎng)絡(luò)架構(gòu)并做訓(xùn)練,以下是一些簡單的例子
不同的 NLP 任務(wù)通常需要不同的模型,而設(shè)計這些模型并測試其 performance 是非常耗成本的(人力,時間,計算資源)。如果有一個能 直接處理各式 NLP 任務(wù)的通用架構(gòu) 該有多好?
隨著時代演進,不少人很自然地有了這樣子的想法,而 BERT 就是其中一個將此概念付諸實踐的例子
Google 在預(yù)訓(xùn)練 BERT 時讓它同時進行兩個任務(wù):
1. 漏字填空
2. 下個句子預(yù)測
對正常人來說,要完成這兩個任務(wù)非常簡單。只要稍微看一下前后文就知道完形填空任務(wù)中 [MASK] 里應(yīng)該填 退了 ;而 醒醒吧 后面接 你沒有妹妹 也十分合理(?)
接下來我會分別詳細(xì)介紹論文中這兩個任務(wù)的設(shè)計細(xì)節(jié)
在 BERT 中,Masked LM(Masked Language Model)構(gòu)建了語言模型,簡單來說,就是 隨機遮蓋或替換 一句話里面的任意字或詞,然后讓模型通過上下文預(yù)測那一個被遮蓋或替換的部分,之后 做 Loss 的時候也只計算被遮蓋部分的 Loss ,這其實是一個很容易理解的任務(wù),實際操作如下:
這樣做的好處是,BERT 并不知道 [MASK] 替換的是哪一個詞,而且 任何一個詞都有可能是被替換掉的,比如它看到的 apple 可能是被替換的詞 。這樣強迫模型在編碼當(dāng)前時刻詞的時候 不能太依賴當(dāng)前的詞 ,而要考慮它的上下文,甚至根據(jù)上下文進行 "糾錯"。比如上面的例子中,模型在編碼 apple 時,根據(jù)上下文 my dog is,應(yīng)該 把 apple 編碼成 hairy 的語義而不是 apple 的語義
我們首先拿到屬于上下文的一對句子,也就是兩個句子,之后我們要在這兩個句子中加一些特殊的 token: [CLS]上一句話[SEP]下一句話[SEP] 。也就是在句子開頭加一個 [CLS] ,在兩句話之間和句末加 [SEP] ,具體地如下圖所示
可以看到,上圖中的兩句話明顯是連續(xù)的。如果現(xiàn)在有這么一句話 [CLS] 我的狗很可愛 [SEP] 企鵝不擅長飛行 [SEP] ,可見這兩句話就 不是連續(xù)的 。在實際訓(xùn)練中,我們會讓這兩種情況出現(xiàn)的數(shù)量為** 1:1**
Token Embedding 就是正常的詞向量,即 PyTorch 中的 nn.Embedding()
Segment Embedding 的作用是用 embedding 的信息讓模型 分開上下句 ,我們給上句的 token 全 0,下句的 token 全 1,讓模型得以判斷上下句的起止位置,例如
Position Embedding 和 Transformer 中的不一樣,不是三角函數(shù),而是 學(xué)習(xí)出來的
BERT 預(yù)訓(xùn)練階段實際上是將上述兩個任務(wù)結(jié)合起來,同時進行,然后將所有的 Loss 相加,例如
BERT 的 Fine-Tuning 共分為 4 種類型,以下內(nèi)容、圖片均來自臺大李宏毅老師 Machine Learning 課程 (以下內(nèi)容 圖在上,解釋在下)
為什么要用CLS?
這里李宏毅老師有一點沒講到,就是為什么要用第一個位置,即 [CLS] 位置的 output。這里我看了網(wǎng)上的一些博客,結(jié)合自己的理解解釋一下。因為 BERT 內(nèi)部是 Transformer,而 Transformer 內(nèi)部又是 Self-Attention, 所以 [CLS] 的 output 里面肯定含有整句話的完整信息 ,這是毋庸置疑的。但是 Self-Attention 向量中,自己和自己的值其實是占大頭的,現(xiàn)在假設(shè)使用 的 output 做分類,那么這個 output 中實際上會更加看重 ,而 又是一個有實際意義的字或詞,這樣難免會影響到最終的結(jié)果。但是 [CLS] 是沒有任何實際意義的,只是一個占位符而已,所以就算 [CLS] 的 output 中自己的值占大頭也無所謂。當(dāng)然你 也可以將所有詞的 output 進行 concat,作為最終的 output
首先將問題和文章通過 [SEP] 分隔,送入 BERT 之后,得到上圖中黃色的輸出。此時我們還要訓(xùn)練兩個 vector,即上圖中橙色和黃色的向量。首先將橙色和所有的黃色向量進行 dot product,然后通過 softmax,看哪一個輸出的值最大,例如上圖中 對應(yīng)的輸出概率最大,那我們就認(rèn)為 s=2
同樣地,我們用藍(lán)色的向量和所有黃色向量進行 dot product,最終預(yù)測得 的概率最大,因此 e=3。最終,答案就是 s=2,e=3
你可能會覺得這里面有個問題,假設(shè)最終的輸出 s>e 怎么辦,那不就矛盾了嗎?其實在某些訓(xùn)練集里,有的問題就是沒有答案的,因此此時的預(yù)測搞不好是對的,就是沒有答案
以上就是 BERT 的詳細(xì)介紹,參考以下文章
ELMo是Embedding from language Model的縮寫,它通過無監(jiān)督的方式對語言模型進行預(yù)訓(xùn)練來學(xué)習(xí)單詞表示
這篇論文的想法其實非常簡單,但是效果卻很好。它的思路是用 深度的雙向 Language Model 在大量未標(biāo)注數(shù)據(jù)上訓(xùn)練語言模型 ,如下圖所示
在實際任務(wù)中,對于輸入的句子,我們使用上面的語言模型來處理它,得到輸出向量,因此這可以看作是一種 特征提取 。但是 ELMo 與普通的 Word2Vec 或 GloVe 不同,ELMo 得到的 Embedding 是 有上下文信息 的
具體來說,給定一個長度為 N 的句子,假設(shè)為 ,語言模型會計算給定 的條件下出現(xiàn) 的概率:
傳統(tǒng)的 N-gram 模型 不能考慮很長的歷史 ,因此現(xiàn)在的主流是使用 多層雙向 LSTM 。在時刻 ,LSTM 的第 層會輸出一個隱狀態(tài) ,其中 , 是 LSTM 的層數(shù)。最上層是 ,對它進行 softmax 之后得到輸出詞的概率
類似的,我們可以用 一個反向 來計算概率:
通過這個 LSTM,我們可以得到 。我們的損失函數(shù)是這兩個 LSTM 的 加和 :
這兩個 LSTM 有各自的參數(shù) 和 ,而 Word Embedding 參數(shù) 和 Softmax 參數(shù) 是共享的
為了用于下游(DownStream)的特定任務(wù),我們會把不同層的隱狀態(tài)組合起來,具體組合的參數(shù)是根據(jù)不同的特定任務(wù)學(xué)習(xí)出來的,公式如下:
GPT 得到的語言模型參數(shù)不是固定的,它會根據(jù)特定的任務(wù)進行調(diào)整(通常是微調(diào)),這樣的到的句子表示能更好的適配特定任務(wù)。它的思想也很簡單,使用 單向 Transformer 學(xué)習(xí)一個語言模型 ,對句子進行無監(jiān)督的 Embedding,然后 根據(jù)具體任務(wù)對 Transformer 的參數(shù)進行微調(diào) 。GPT 與 ELMo 有兩個主要的區(qū)別:
這里解釋一下上面提到的 單向 Transformer 。在 Transformer 的文章中,提到了 Encoder 與 Decoder 使用的 Transformer Block 是不同的。在 Decoder Block 中,使用了 Masked Self-Attention ,即句子中的每個詞都只能對 包括自己在內(nèi)的前面所有詞進行 Attention ,這就是單向 Transformer。GPT 使用的 Transformer 結(jié)構(gòu)就是將 Encoder 中的 Self-Attention 替換成了 Masked Self-Attention ,具體結(jié)構(gòu)如下圖所示
訓(xùn)練的過程也非常簡單,就是將 n 個詞的詞嵌入 ( ) 加上位置嵌入 ( ),然后輸入到 Transformer 中,n 個輸出分別預(yù)測該位置的下一個詞
這里的位置編碼沒有使用傳統(tǒng) Transformer 固定編碼的方式,而是動態(tài)學(xué)習(xí)的
Pretraining 之后,我們還需要針對特定任務(wù)進行 Fine-Tuning。假設(shè)監(jiān)督數(shù)據(jù)集合 的輸入 是一個詞序列 ,輸出是一個分類的標(biāo)簽 ,比如情感分類任務(wù)
我們把 輸入 Transformer 模型,得到最上層最后一個時刻的輸出 ,將其通過我們新增的一個 Softmax 層(參數(shù)為 )進行分類,最后用 CrossEntropyLoss 計算損失,從而根據(jù)標(biāo)準(zhǔn)數(shù)據(jù)調(diào)整 Transformer 的參數(shù)以及 Softmax 的參數(shù) 。這等價于最大似然估計:
正常來說,我們應(yīng)該調(diào)整參數(shù)使得 最大,但是 為了提高訓(xùn)練速度和模型的泛化能力 ,我們使用 Multi-Task Learning,同時讓它最大似然 和
這里使用的 還是之前語言模型的損失(似然),但是使用的數(shù)據(jù)不是前面無監(jiān)督的數(shù)據(jù) ,而是使用當(dāng)前任務(wù)的數(shù)據(jù) ,而且只使用其中的 ,而不需要標(biāo)簽
針對不同任務(wù),需要簡單修改下輸入數(shù)據(jù)的格式,例如對于相似度計算或問答,輸入是兩個序列,為了能夠使用 GPT,我們需要一些特殊的技巧把兩個輸入序列變成一個輸入序列
ELMo 和 GPT 最大的問題就是 傳統(tǒng)的語言模型是單向的 —— 我們根據(jù)之前的歷史來預(yù)測當(dāng)前詞。但是我們不能利用后面的信息。比如句子 The animal didn’t cross the street because it was too tired 。我們在編碼 it 的語義的時候需要同時利用前后的信息,因為在這個句子中, it 可能指代 animal 也可能指代 street 。根據(jù) tired ,我們推斷它指代的是 animal 。但是如果把 tired 改成 wide ,那么 it 就是指代 street 了。傳統(tǒng)的語言模型,都 只能利用單方向的信息 。比如前向的 RNN,在編碼 it 的時候它看到了 animal 和 street ,但是它還沒有看到 tired ,因此它不能確定 it 到底指代什么。如果是后向的 RNN,在編碼的時候它看到了 tired ,但是它還根本沒看到 animal ,因此它也不能知道指代的是 animal 。 Transformer 的 Self-Attention 理論上是可以同時關(guān)注到這兩個詞的,但是根據(jù)前面的介紹,為了使用 Transformer 學(xué)習(xí)語言模型,必須 用 Mask 來讓它看不到未來的信息 ,所以它也不能解決這個問題的
根據(jù)上文內(nèi)容預(yù)測下一個可能跟隨的單詞,就是常說的自左向右的語言模型任務(wù),或者反過來也行,就是根據(jù)下文預(yù)測前面的單詞,這種類型的LM被稱為自回歸語言模型。(GPT,ELMO)GPT 就是典型的自回歸語言模型。ELMO盡管看上去利用了上文,也利用了下文,但是本質(zhì)上仍然是自回歸LM,這個跟模型具體怎么實現(xiàn)有關(guān)系。ELMO是做了兩個方向(從左到右以及從右到左兩個方向的語言模型),但是是分別有兩個方向的自回歸LM,然后把LSTM的兩個方向的隱節(jié)點狀態(tài)拼接到一起,來體現(xiàn)雙向語言模型這個事情的。所以其實是兩個自回歸語言模型的拼接,本質(zhì)上仍然是自回歸語言模型。
自回歸語言模型有優(yōu)點有缺點,缺點是只能利用上文或者下文的信息,不能同時利用上文和下文的信息,當(dāng)然,貌似ELMO這種雙向都做,然后拼接看上去能夠解決這個問題,因為融合模式過于簡單,所以效果其實并不是太好。它的優(yōu)點,其實跟下游NLP任務(wù)有關(guān),比如生成類NLP任務(wù),比如文本摘要,機器翻譯等,在實際生成內(nèi)容的時候,就是從左向右的, 自回歸語言模型天然匹配這個過程 。而Bert這種DAE模式,在生成類NLP任務(wù)中,就面臨訓(xùn)練過程和應(yīng)用過程不一致的問題,導(dǎo)致 生成類的NLP任務(wù)到目前為止都做不太好 。
自回歸語言模型只能根據(jù)上文預(yù)測下一個單詞,或者反過來,只能根據(jù)下文預(yù)測前面一個單詞。相比而言,Bert通過 在輸入X中隨機Mask掉一部分單詞 ,然后預(yù)訓(xùn)練過程的主要任務(wù)之一是根據(jù)上下文單詞來預(yù)測這些被Mask掉的單詞,如果你對Denoising Autoencoder比較熟悉的話,會看出,這確實是典型的DAE的思路。那些被Mask掉的單詞就是在輸入側(cè)加入的所謂噪音。類似Bert這種預(yù)訓(xùn)練模式,被稱為DAE LM。
這種DAE LM的優(yōu)缺點正好和自回歸LM反過來,它能比較自然地融入雙向語言模型,同時看到被預(yù)測單詞的上文和下文,這是好處。缺點是啥呢? 主要在輸入側(cè)引入[Mask]標(biāo)記,導(dǎo)致預(yù)訓(xùn)練階段和Fine-tuning階段不一致的問題 ,因為Fine-tuning階段是看不到[Mask]標(biāo)記的。DAE嗎,就要引入噪音,[Mask] 標(biāo)記就是引入噪音的手段,這個正常。
XLNet的出發(fā)點就是:能否 融合自回歸LM和DAE LM兩者的優(yōu)點 。就是說如果站在自回歸LM的角度,如何引入和雙向語言模型等價的效果;如果站在DAE LM的角度看,它本身是融入雙向語言模型的,如何拋掉表面的那個[Mask]標(biāo)記,讓預(yù)訓(xùn)練和Fine-tuning保持一致。當(dāng)然,XLNet還講到了一個Bert被Mask單詞之間相互獨立的問題。
<script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>二、GPT的使用
首先你確認(rèn)正確安裝了GTP
其次GTP4不能打開GTP5的譜子
第三\打開GTP,從"文件"里找的譜子,CTRL+O是熱鍵.打開后從"查找范圍"選擇譜子的目錄,并打開.
沒變是因為沒注冊成功,注冊GTP后會自動的重新啟動機子 <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>
三、Prompt-NLP新范式
NLP技術(shù)發(fā)展的四種范式:
Prompt的起源可以追溯到GPT-2,T5,GPT-3等的一些研究,發(fā)現(xiàn)在輸入樣本前加入一個和任務(wù)相關(guān)的 前綴 ,就可以提示模型接下來要輸出的內(nèi)容。比如在GPT-3的預(yù)測階段,只需要在輸入樣本前加上Translate English to French: 就可以提示模型接下來要進行翻譯任務(wù),即完全依靠模型在預(yù)訓(xùn)練階段學(xué)到的知識來進行預(yù)測,不需要在下游任務(wù)上再依靠task-specific的 監(jiān)督數(shù)據(jù) 對模型進行fine-tune就可直接使用,一方面減少了fine-tune模型的計算和存儲代價,另一方面也給樣本量極度缺乏的 少樣本領(lǐng)域(zero/few-shot) 帶來了福音。
這種依靠 提示信息(Prompt) 來激發(fā)模型的內(nèi)在潛能,挖掘模型在大規(guī)模預(yù)訓(xùn)練階段學(xué)到的知識的做法引領(lǐng)了NLP領(lǐng)域的第四范式。人們逐漸開始思考如何更加 高效地利用 預(yù)訓(xùn)練語言模型的大量參數(shù),如何將各種下游任務(wù)都統(tǒng)一到一個 通用框架 下,使得模型能夠根據(jù)不同的提示信息進行不同的任務(wù),從而不需要再為每個下游任務(wù)訓(xùn)練單獨的模型。
本文將對Prompt快速發(fā)展過程中一些重要論文的核心創(chuàng)新點進行簡要介紹,而不會詳細(xì)描述過多模型細(xì)節(jié)(欲知全貌建議直接讀原論文)。
論文:Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference (2020)
該論文對Prompt模式的研究進行了規(guī)范,提出了 Pattern-Verbalizer 的概念:
比如對于5分類任務(wù),給定輸入樣本 a ,對應(yīng)的模板函數(shù) P 和標(biāo)簽映射函數(shù) v 可為:
注意這里多種Prompt模板函數(shù)以及答案映射函數(shù)都是 人工手動設(shè)計 的。
然后利用新構(gòu)建出來的 P(x),v(l) 對預(yù)訓(xùn)練模型進行fine-tune,其他更多細(xì)節(jié)不再展開,實驗結(jié)果顯示該方法在少樣本任務(wù)上表現(xiàn)很好。
論文:It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners ( PET原班人馬 )
GPT-3出來后顯示了其在少樣本學(xué)習(xí)上的驚人能力,但是其龐大的參數(shù)量也令人望而卻步。而本文作者提出 “小模型在少樣本學(xué)習(xí)上也可以有卓越表現(xiàn)” ,直接對標(biāo)GPT-3這個龐然大物,從而奠定了 PET所提范式 在江湖的霸主地位,引起了各大武林人士的關(guān)注。
該文證明了PET所提范式的有效性,同時作者還分析發(fā)現(xiàn)設(shè)計不同的 Prompt 模板和標(biāo)簽映射函數(shù) Verbalizer 對模型性能影響較大,從而引起后來人員涌入改進Prompt模板和標(biāo)簽映射Verbalizer構(gòu)造的浪潮中。
論文:Making Pre-trained Language Models Better Few-shot Learners
取代PET中手動構(gòu)建Prompt模板和標(biāo)簽映射函數(shù)的過程,自動化搜索模板和標(biāo)簽映射,同時參考GPT-3中的in-context learning,在輸入樣本中加入示例(demonstrations)作為上下文,幫助模型更好地理解要做什么。
實驗表明,在少樣本上,這種基于prompt的fine-tune效果能夠明顯好于標(biāo)準(zhǔn)的fine-tune,并且在樣本中加入示例確實能夠帶來增益。
也許未必非要構(gòu)建人能理解的 離散tokens式 的Prompt,構(gòu)建模型能夠接受的 連續(xù)向量式 的Prompt也未嘗不可。
4.1 論文: Prefix-Tuning : Optimizing Continuous Prompts for Generation
該文針對 NLG(Natural Language Generation) 任務(wù),提出了構(gòu)建連續(xù)的prompts。在預(yù)訓(xùn)練模型的每一層加上一個Prefix前綴矩陣,固定預(yù)訓(xùn)練模型的參數(shù),僅訓(xùn)練前綴矩陣的參數(shù),在few-shot設(shè)定下,性能超過標(biāo)準(zhǔn)的fine-tune。
實驗結(jié)果表明,在 全量 數(shù)據(jù)下,prompt-based fine-tune的效果能夠 相當(dāng) standard fine-tune;在 少樣本 下,能夠 超過 standard fine-tune。
4.2 論文:GPT Understands, Too ( P-tuning )
該文針對 NLU(Natural Language Understanding) 任務(wù),也提出了構(gòu)建連續(xù)的prompts。與 Prefix-tuning 不同的是,這里的prompts僅需要加在輸入層,而不用加在網(wǎng)絡(luò)的每一層,就可以work well。
利用 biLSTM 對prompts進行 Encode ,然后將編碼后的 prompts embedding 和樣本 x 輸入預(yù)訓(xùn)練語言模型(PLM),之后同時fine-tune prompt embeddings 和 pretrained model 。
考慮到優(yōu)化連續(xù)的prompt向量有兩個問題:
因此作者提出先采用 biLSTM 作為 Prompt Encoder 來編碼prompt向量。
具體Prompt模板設(shè)計為:
實驗結(jié)果表明,在 全量 數(shù)據(jù)下,prompt-based fine-tune的效果能夠 相當(dāng) 或超過standard fine-tune。
論文:The Power of Scale for Parameter-Efficient Prompt Tuning
該文提出為每個下游任務(wù)設(shè)計自己的prompt,拼接到輸入樣本上,然后完全freeze預(yù)訓(xùn)練模型的權(quán)重,僅訓(xùn)練prompts對應(yīng)的權(quán)重參數(shù)。發(fā)現(xiàn)隨著模型體積的增大, Prompt-tuning 的效果逐漸追上標(biāo)準(zhǔn) fine-tune 的效果。
這里 Model Tuning 就是指標(biāo)準(zhǔn)的 fine-tune ,即在下游任務(wù)上對預(yù)訓(xùn)練模型的參數(shù)進行更新。
最后對各論文實驗結(jié)果的普遍規(guī)律進行一個總結(jié)。各論文采用的fine-tune策略主要有以下三種:
<script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>四、我要寫論文,但不知道格式
樓上那是野路子,拿去發(fā)表肯定讓人罵死!
給大家看看我發(fā)表的論文的格式吧!大家可以在中文期刊數(shù)據(jù)庫中查到我的論文。
標(biāo)題、中文摘要、關(guān)鍵詞、英文摘要、英文關(guān)鍵詞、
材料和方法、數(shù)據(jù)分析、討論、參考文獻。
注意在文章中參考別人的東西要加肩標(biāo)!
不同蛋氨酸水平對長毛兔產(chǎn)毛性和血液生化指標(biāo)的影響
摘要:48只彩色長毛兔隨機分成4個處理,處理組1為對照組,處理組2,3,4為試驗組,試驗組分別添加不同水平的蛋氨酸,旨在研究不同蛋氨酸水平對長毛兔產(chǎn)毛性能和血液生化指標(biāo)的影響。試驗結(jié)果:處理組2的TP , AIb, GPT, GOT,CHO,ALP、生長速度、兔毛抗拉力、韌性、密度與其他3個處理組差異顯著(P<0. 05),處理組2兔毛直徑較其他3個處理組大,差異顯著(P<0. 05)。日糧中添加0. 2%蛋氨酸時,家兔的產(chǎn)毛性能達到最佳。
關(guān)鍵詞: 蛋氨酸水平 生化指標(biāo) 產(chǎn)毛性能
Effect of Different Methionine Levels on Production Performance and
Blood Serum Traits of Wool Rabbit
( Heilongjiang August First Land Reclamation University, Daqing Heilongjiang 163319)
ABSTRACT 48 wool rabbits were divided into four groups. Croup 1 was the control, the other were the treatments which fielded the methionine in different levels to bulid the(onsistence of foodstuffs of different mehtionine levels. The results were as follows: the Croup 2 was significantly higher than that of others(P<0. 05)in aspect of TP, Alb, GPT, GOT, CHO, ALP, growth speed, pull resistance, tenacity, density .The diameter of rabbit hair is significantly than the others(P<0.05). 0.2 % computation of Methionine is the best.
KEY WORDS Methionine levels, Blood serum traits, Production of hair
蛋氨酸為含硫氨基酸,是產(chǎn)毛家畜的第一限制性氨基酸。采用硫酸鹽形式飼喂長毛兔,無機硫可很好地被吸收。蛋氨酸在飼料和微生物蛋自中并不富有,而產(chǎn)毛又需要高含硫氨基酸,因此在日糧中添加蛋氨酸,就成為提高產(chǎn)毛量的一個重要措施。為探討北方寒區(qū)春季環(huán)境條件下不同蛋氨酸水平對長毛兔產(chǎn)毛性能和血液生化指標(biāo)的影響,確定最佳蛋氨酸添加量,我們進行了相關(guān)的飼養(yǎng)試驗。
1 材料與方法
1. 1 材料
1. 1. 1試驗動物試驗采用單因子設(shè)計,將48只平均體重在1. 70士0. 291g左右的彩色長毛兔分為4個處理,每個處理3個重復(fù),重復(fù)數(shù)為4只,各組間體重要求差異不顯著(P>0.05)。試驗兔飼養(yǎng)于同一室內(nèi)的雙列雙層式籠中,每籠1只,條件一致。
1. 1. 2試驗日糧
基礎(chǔ)日糧組成(%):青干草40. 6 ,豆餅20、麥麩23、玉米12、食鹽0. 4、預(yù)混料4;
日糧營養(yǎng)水平為: 消化能11. 14 MJ/Kg、粗蛋白17. 57% 、粗纖維13. 36%、Ca 0. 71% 、P 0. 47%;
處理組1為對照組,飼喂基礎(chǔ)日糧;處理組2,3, 4為試驗組,分別在4%的預(yù)混料中添加0.2%、0.4%、0.6%的蛋氨酸。
1. 1. 3飼養(yǎng)管理
預(yù)飼期為7天,試驗期30天。每日飼喂3次,時間分別為7點、12點和20點。每只兔每日投喂精料135g ,青干草203g,自由飲水。[1]
預(yù)飼結(jié)束后染毛,染毛部位為體軀左側(cè),染毛面積為2 x l0cm。染毛采用絢麗紅色染發(fā)膏染毛,深染,使毛露出體表部分全部染成紅色。試驗期間,新毛為長毛兔本身顏色,而舊毛為絢麗紅色,從而可以確定產(chǎn)毛長度。試驗結(jié)束后采毛,將染色部位貼近皮膚剪毛,按編號單獨保存,以備檢測。
1. 1. 4血清的制備及測定方法
試驗結(jié)束當(dāng)日早晨,飼喂前心臟采血各5mL,4小時后離心分離血清,貯存于-20℃以下,備用??偰懝檀迹–HO)的測定采用酶比色法,總蛋自(TP)的測定采用雙縮尿法,白蛋自(Alb)的測定采用溴甲酚綠法,堿性磷酸酶(ALP)、谷草轉(zhuǎn)氨酶(GOT)、谷丙轉(zhuǎn)氨酶(CPT)的測定采用連續(xù)監(jiān)測法。
1. 1. 5儀器 恒溫水浴鍋,ZS-3型半自動生化分析儀、CYG-55型顯微投影儀、YG001A型電子單纖維強力機。
1. 1. 6試劑盒 均購于中生北控生物科技股份有限公司。
1. 2 方法
根據(jù)生化試劑盒上的說明進行各項生化指標(biāo)的測定。
1. 3 數(shù)據(jù)處理
本試驗結(jié)果以X士S表示,數(shù)據(jù)處理與分析采用國際通用的SAS軟件ANOVA,并進行多重比較。
2 結(jié)果與分析
2.1血液生化指標(biāo)(見表1)
TP、Alb在一定程度上代表了日糧中蛋自質(zhì)的營養(yǎng)水平及動物對蛋白質(zhì)的消化吸收程度。處理組2與其他3個處理比較,差異顯著(P<0.05),且含量最高,說明總蛋白含量隨日糧蛋氨酸水平增加而增加。但處理組3、處理組4隨日糧蛋氨酸添加量的增高,血清中TP、Alb含量反而減少,這說明蛋氨酸水平超過需要量時,氨基酸不平衡,動物機體不能對其有效地消化吸收,血清總蛋白沉積率并不高,這與李戰(zhàn)勝(1994)的研究結(jié)果是一致的。
CPT, GOT反應(yīng)蛋白質(zhì)合成和分解代謝的狀況,從表1可以看出,以添加0. 2%蛋氨酸的處理組2的CPT、GOT含量為最高。
膽固醇是細(xì)胞膜的成分[3],因而體內(nèi)不能缺少它,但太多時會引起動脈硬化。肝臟是合成膽固醇的主要場所。本試驗中血清CHO以處理組4最高,處理2血清中的CHO含量最低,由此看來,日糧蛋白水平過高,會造成血清膽固醇的大幅度增加,不利動物的健康生長。ALP是一組在堿性條件下具有較高活力的磷酸單酯水解酶,其活性高低可反映生長速度和生產(chǎn)性能,提高血液中ALP活性有利于提高日增重[4]。由表1可知,處理組2血清中A LP含量顯著高于其他3個處理(P<0. 05),這與趙國成1997[5]的研究結(jié)果一致。
2. 2 兔毛生長速度(見表2)
每個樣品測兔毛100根,用鋼板尺測毛纖維的自然長度。
生長速度決定長毛兔每年的剪毛次數(shù),生長速度快,每年的剪毛次數(shù)就多。由表2可知,處理組2較其他3個處理的兔毛增長量高,兔毛的生長速度快,差異顯著( P<0. 05)。這與李福昌(2003)[6]的研究結(jié)果一致。
2.3 兔毛纖維直徑(見表3)
注:肩注字母不同為差異顯著(P>0.05);相同為差異不顯著( P<0. 05)。
采用CYG-55型顯微投影儀(上海光學(xué)儀器研究所)測量,每個樣品測量100根。
對成年毛兔而言,若飼料營養(yǎng)水平高,毛直徑增大,產(chǎn)毛量增加,飼料營養(yǎng)水平低,毛直徑變小,產(chǎn)毛量下降。但過粗的毛會使兔毛經(jīng)濟價值降低。由表3可知,處理組2較其他3個處理兔毛直徑大,差異顯著(P<0. 05)。
2.4 抗拉力與韌性(見表4)
注:肩注字母不同為差異顯著(P>0.05);相同為差異不顯著( P<0. 05)。
采用YG001A型電子單纖維強力機(常州正大通用紡織儀器有限公司)測量,每個樣品測量50根。
抗拉力和韌性決定兔毛的等級,由表4可知,處理2兔毛的抗拉力、韌性較其他處理組高,差異顯著(P<0.05)。
2.5 兔毛密度(見表5)
注:肩注字母不同為差異顯著(P>0.05);相同為差異不顯著( P<0. 05)。
測量密度時,因長毛兔腹部、頭部、臀部與尾部兔毛密度差異很大,所以在一個樣品中分別在腹部、頭部、背部與臀部采4個品樣,各取1 cm-毛,然后取均值,剪成相同長度毛束,數(shù)出500根毛,稱重,再將全部毛束稱重,將全重除以500根毛重量,得出數(shù)值乘500即為兔毛密度。由表5可知,處理組2的兔毛密度顯著高于其他3個處理,差異顯著(P<0.05)。
3 小結(jié)與討論
從飼養(yǎng)試驗的結(jié)果看,處理組2,即日糧中添加0. 2%蛋氨酸組的生產(chǎn)性能要好于其他3個處理組。
蛋氨酸作為含硫氨基酸,對產(chǎn)毛具有相當(dāng)重要的作用。日糧中蛋氨酸在消化道內(nèi)分解成游離氨基酸及小肽被吸收,在體內(nèi)作為提供必需氨基酸及合成非必需氨基酸的氮源參與體內(nèi)氮的代謝,但只有蛋氨酸水平達到平衡時,才能獲得較高的生產(chǎn)性能,適當(dāng)添加蛋氨酸會顯著提高長毛兔的生產(chǎn)能力,但其超過需要量時,其轉(zhuǎn)化率下降,且會造成體內(nèi)氨基酸不平衡,并影響動物對其他營養(yǎng)物質(zhì)的消化吸收,從而導(dǎo)致生產(chǎn)性能下降。
4 參考文獻
[1] W. Schlolam.家兔生產(chǎn)指南.甘肅科學(xué)技術(shù)出版社. 2002. 112
[2] 李戰(zhàn)勝.過度地添加氨基酸會降低生產(chǎn)性能. International Feed .1994. 10: 2-4
[3] 夏新山.袁書林.楊元青等.中草藥添加劑及不同飼糧類型對生長育肥豬血液生化指標(biāo)的影響.動物科學(xué)與動物醫(yī)學(xué).2003, 20 (12): 38-9
[4] 梁之彥.生理生化.上??茖W(xué)技術(shù)出版社.1990. 441-442
[5] 趙國成.日糧中添加蛋氨酸對毛兔產(chǎn)毛性能的影響.當(dāng)代畜牧,1997.02:58-59
[6] 李福昌.姜文學(xué).劉宏峰.李富寬.日糧蛋氨酸水平對安哥拉兔氮利用、產(chǎn)毛性能及血液指標(biāo)的影響.畜牧獸醫(yī)學(xué)報.2003.3:249
[7] 黃鄧萍.程濟棟.川西地區(qū)德系安哥拉兔產(chǎn)毛性能和毛的理化特性及其相關(guān)分析.四川農(nóng)業(yè)大學(xué)學(xué)報.1995.13:91-93 <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>
以上就是關(guān)于如何用GPT寫論文相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
如何開一個自己的網(wǎng)店(如何開一個自己的網(wǎng)店)