HOME 首页
SERVICE 服务产品
XINMEITI 新媒体代运营
CASE 服务案例
NEWS 热点资讯
ABOUT 关于我们
CONTACT 联系我们
创意岭
让品牌有温度、有情感
专注品牌策划15年

    如何用GPT写论文(gpt2论文)

    发布时间:2023-03-13 22:58:50     稿源: 创意岭    阅读: 102        问大家

    大家好!今天让创意岭的小编来大家介绍下关于如何用GPT写论文的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。

    ChatGPT国内免费在线使用,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等

    只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端

    官网:https://ai.de1919.com

    本文目录:

    如何用GPT写论文(gpt2论文)

    一、BERT详解(附带ELMo、GPT 介绍)

    首先我会详细阐述 BERT 原理,然后简单介绍一下 ELMO 以及 GPT

    BERT 全称为 B idirectional E ncoder R epresentation from T ransformer,是 Google 以 无监督的方式利用大量无标注文本 「炼成」的语言模型,其架构为 Transformer 中的 Encoder(BERT=Encoder of Transformer)

    我在 Transformer 详解 中已经详细的解释了所有 Transformer 的相关概念,这里就不再赘述

    以往为了解决不同的 NLP 任务,我们会为该任务设计一个最合适的神经网络架构并做训练,以下是一些简单的例子

    不同的 NLP 任务通常需要不同的模型,而设计这些模型并测试其 performance 是非常耗成本的(人力,时间,计算资源)。如果有一个能 直接处理各式 NLP 任务的通用架构 该有多好?

    随着时代演进,不少人很自然地有了这样子的想法,而 BERT 就是其中一个将此概念付诸实践的例子

    Google 在预训练 BERT 时让它同时进行两个任务:

    1. 漏字填空

    2. 下个句子预测

    对正常人来说,要完成这两个任务非常简单。只要稍微看一下前后文就知道完形填空任务中 [MASK] 里应该填 退了 ;而 醒醒吧 后面接 你没有妹妹 也十分合理(?)

    接下来我会分别详细介绍论文中这两个任务的设计细节

    在 BERT 中,Masked LM(Masked Language Model)构建了语言模型,简单来说,就是 随机遮盖或替换 一句话里面的任意字或词,然后让模型通过上下文预测那一个被遮盖或替换的部分,之后 做 Loss 的时候也只计算被遮盖部分的 Loss ,这其实是一个很容易理解的任务,实际操作如下:

    这样做的好处是,BERT 并不知道 [MASK] 替换的是哪一个词,而且 任何一个词都有可能是被替换掉的,比如它看到的 apple 可能是被替换的词 。这样强迫模型在编码当前时刻词的时候 不能太依赖当前的词 ,而要考虑它的上下文,甚至根据上下文进行 "纠错"。比如上面的例子中,模型在编码 apple 时,根据上下文 my dog is,应该 把 apple 编码成 hairy 的语义而不是 apple 的语义

    我们首先拿到属于上下文的一对句子,也就是两个句子,之后我们要在这两个句子中加一些特殊的 token: [CLS]上一句话[SEP]下一句话[SEP] 。也就是在句子开头加一个 [CLS] ,在两句话之间和句末加 [SEP] ,具体地如下图所示

    可以看到,上图中的两句话明显是连续的。如果现在有这么一句话 [CLS] 我的狗很可爱 [SEP] 企鹅不擅长飞行 [SEP] ,可见这两句话就 不是连续的 。在实际训练中,我们会让这两种情况出现的数量为** 1:1**

    Token Embedding 就是正常的词向量,即 PyTorch 中的 nn.Embedding()

    Segment Embedding 的作用是用 embedding 的信息让模型 分开上下句 ,我们给上句的 token 全 0,下句的 token 全 1,让模型得以判断上下句的起止位置,例如

    Position Embedding 和 Transformer 中的不一样,不是三角函数,而是 学习出来的

    BERT 预训练阶段实际上是将上述两个任务结合起来,同时进行,然后将所有的 Loss 相加,例如

    BERT 的 Fine-Tuning 共分为 4 种类型,以下内容、图片均来自台大李宏毅老师 Machine Learning 课程 (以下内容 图在上,解释在下)

    为什么要用CLS?

    这里李宏毅老师有一点没讲到,就是为什么要用第一个位置,即 [CLS] 位置的 output。这里我看了网上的一些博客,结合自己的理解解释一下。因为 BERT 内部是 Transformer,而 Transformer 内部又是 Self-Attention, 所以 [CLS] 的 output 里面肯定含有整句话的完整信息 ,这是毋庸置疑的。但是 Self-Attention 向量中,自己和自己的值其实是占大头的,现在假设使用 的 output 做分类,那么这个 output 中实际上会更加看重 ,而 又是一个有实际意义的字或词,这样难免会影响到最终的结果。但是 [CLS] 是没有任何实际意义的,只是一个占位符而已,所以就算 [CLS] 的 output 中自己的值占大头也无所谓。当然你 也可以将所有词的 output 进行 concat,作为最终的 output

    首先将问题和文章通过 [SEP] 分隔,送入 BERT 之后,得到上图中黄色的输出。此时我们还要训练两个 vector,即上图中橙色和黄色的向量。首先将橙色和所有的黄色向量进行 dot product,然后通过 softmax,看哪一个输出的值最大,例如上图中 对应的输出概率最大,那我们就认为 s=2

    同样地,我们用蓝色的向量和所有黄色向量进行 dot product,最终预测得 的概率最大,因此 e=3。最终,答案就是 s=2,e=3

    你可能会觉得这里面有个问题,假设最终的输出 s>e 怎么办,那不就矛盾了吗?其实在某些训练集里,有的问题就是没有答案的,因此此时的预测搞不好是对的,就是没有答案

    以上就是 BERT 的详细介绍,参考以下文章

    ELMo是Embedding from language Model的缩写,它通过无监督的方式对语言模型进行预训练来学习单词表示

    这篇论文的想法其实非常简单,但是效果却很好。它的思路是用 深度的双向 Language Model 在大量未标注数据上训练语言模型 ,如下图所示

    在实际任务中,对于输入的句子,我们使用上面的语言模型来处理它,得到输出向量,因此这可以看作是一种 特征提取 。但是 ELMo 与普通的 Word2Vec 或 GloVe 不同,ELMo 得到的 Embedding 是 有上下文信息

    具体来说,给定一个长度为 N 的句子,假设为 ,语言模型会计算给定 的条件下出现 的概率:

    传统的 N-gram 模型 不能考虑很长的历史 ,因此现在的主流是使用 多层双向 LSTM 。在时刻 ,LSTM 的第 层会输出一个隐状态 ,其中 , 是 LSTM 的层数。最上层是 ,对它进行 softmax 之后得到输出词的概率

    类似的,我们可以用 一个反向 来计算概率:

    通过这个 LSTM,我们可以得到 。我们的损失函数是这两个 LSTM 的 加和 :

    这两个 LSTM 有各自的参数 和 ,而 Word Embedding 参数 和 Softmax 参数 是共享的

    为了用于下游(DownStream)的特定任务,我们会把不同层的隐状态组合起来,具体组合的参数是根据不同的特定任务学习出来的,公式如下:

    GPT 得到的语言模型参数不是固定的,它会根据特定的任务进行调整(通常是微调),这样的到的句子表示能更好的适配特定任务。它的思想也很简单,使用 单向 Transformer 学习一个语言模型 ,对句子进行无监督的 Embedding,然后 根据具体任务对 Transformer 的参数进行微调 。GPT 与 ELMo 有两个主要的区别:

    这里解释一下上面提到的 单向 Transformer 。在 Transformer 的文章中,提到了 Encoder 与 Decoder 使用的 Transformer Block 是不同的。在 Decoder Block 中,使用了 Masked Self-Attention ,即句子中的每个词都只能对 包括自己在内的前面所有词进行 Attention ,这就是单向 Transformer。GPT 使用的 Transformer 结构就是将 Encoder 中的 Self-Attention 替换成了 Masked Self-Attention ,具体结构如下图所示

    训练的过程也非常简单,就是将 n 个词的词嵌入 ( ) 加上位置嵌入 ( ),然后输入到 Transformer 中,n 个输出分别预测该位置的下一个词

    这里的位置编码没有使用传统 Transformer 固定编码的方式,而是动态学习的

    Pretraining 之后,我们还需要针对特定任务进行 Fine-Tuning。假设监督数据集合 的输入 是一个词序列 ,输出是一个分类的标签 ,比如情感分类任务

    我们把 输入 Transformer 模型,得到最上层最后一个时刻的输出 ,将其通过我们新增的一个 Softmax 层(参数为 )进行分类,最后用 CrossEntropyLoss 计算损失,从而根据标准数据调整 Transformer 的参数以及 Softmax 的参数 。这等价于最大似然估计:

    正常来说,我们应该调整参数使得 最大,但是 为了提高训练速度和模型的泛化能力 ,我们使用 Multi-Task Learning,同时让它最大似然 和

    这里使用的 还是之前语言模型的损失(似然),但是使用的数据不是前面无监督的数据 ,而是使用当前任务的数据 ,而且只使用其中的 ,而不需要标签

    针对不同任务,需要简单修改下输入数据的格式,例如对于相似度计算或问答,输入是两个序列,为了能够使用 GPT,我们需要一些特殊的技巧把两个输入序列变成一个输入序列

    ELMo 和 GPT 最大的问题就是 传统的语言模型是单向的 —— 我们根据之前的历史来预测当前词。但是我们不能利用后面的信息。比如句子 The animal didn’t cross the street because it was too tired 。我们在编码 it 的语义的时候需要同时利用前后的信息,因为在这个句子中, it 可能指代 animal 也可能指代 street 。根据 tired ,我们推断它指代的是 animal 。但是如果把 tired 改成 wide ,那么 it 就是指代 street 了。传统的语言模型,都 只能利用单方向的信息 。比如前向的 RNN,在编码 it 的时候它看到了 animal 和 street ,但是它还没有看到 tired ,因此它不能确定 it 到底指代什么。如果是后向的 RNN,在编码的时候它看到了 tired ,但是它还根本没看到 animal ,因此它也不能知道指代的是 animal 。 Transformer 的 Self-Attention 理论上是可以同时关注到这两个词的,但是根据前面的介绍,为了使用 Transformer 学习语言模型,必须 用 Mask 来让它看不到未来的信息 ,所以它也不能解决这个问题的

    根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来也行,就是根据下文预测前面的单词,这种类型的LM被称为自回归语言模型。(GPT,ELMO)GPT 就是典型的自回归语言模型。ELMO尽管看上去利用了上文,也利用了下文,但是本质上仍然是自回归LM,这个跟模型具体怎么实现有关系。ELMO是做了两个方向(从左到右以及从右到左两个方向的语言模型),但是是分别有两个方向的自回归LM,然后把LSTM的两个方向的隐节点状态拼接到一起,来体现双向语言模型这个事情的。所以其实是两个自回归语言模型的拼接,本质上仍然是自回归语言模型。

    自回归语言模型有优点有缺点,缺点是只能利用上文或者下文的信息,不能同时利用上文和下文的信息,当然,貌似ELMO这种双向都做,然后拼接看上去能够解决这个问题,因为融合模式过于简单,所以效果其实并不是太好。它的优点,其实跟下游NLP任务有关,比如生成类NLP任务,比如文本摘要,机器翻译等,在实际生成内容的时候,就是从左向右的, 自回归语言模型天然匹配这个过程 。而Bert这种DAE模式,在生成类NLP任务中,就面临训练过程和应用过程不一致的问题,导致 生成类的NLP任务到目前为止都做不太好

    自回归语言模型只能根据上文预测下一个单词,或者反过来,只能根据下文预测前面一个单词。相比而言,Bert通过 在输入X中随机Mask掉一部分单词 ,然后预训练过程的主要任务之一是根据上下文单词来预测这些被Mask掉的单词,如果你对Denoising Autoencoder比较熟悉的话,会看出,这确实是典型的DAE的思路。那些被Mask掉的单词就是在输入侧加入的所谓噪音。类似Bert这种预训练模式,被称为DAE LM。

    这种DAE LM的优缺点正好和自回归LM反过来,它能比较自然地融入双向语言模型,同时看到被预测单词的上文和下文,这是好处。缺点是啥呢? 主要在输入侧引入[Mask]标记,导致预训练阶段和Fine-tuning阶段不一致的问题 ,因为Fine-tuning阶段是看不到[Mask]标记的。DAE吗,就要引入噪音,[Mask] 标记就是引入噪音的手段,这个正常。

    XLNet的出发点就是:能否 融合自回归LM和DAE LM两者的优点 。就是说如果站在自回归LM的角度,如何引入和双向语言模型等价的效果;如果站在DAE LM的角度看,它本身是融入双向语言模型的,如何抛掉表面的那个[Mask]标记,让预训练和Fine-tuning保持一致。当然,XLNet还讲到了一个Bert被Mask单词之间相互独立的问题。

    <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    二、GPT的使用

    首先你确认正确安装了GTP

    其次GTP4不能打开GTP5的谱子

    第三\打开GTP,从"文件"里找的谱子,CTRL+O是热键.打开后从"查找范围"选择谱子的目录,并打开.

    没变是因为没注册成功,注册GTP后会自动的重新启动机子 <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    三、Prompt-NLP新范式

    NLP技术发展的四种范式:

    Prompt的起源可以追溯到GPT-2,T5,GPT-3等的一些研究,发现在输入样本前加入一个和任务相关的 前缀 ,就可以提示模型接下来要输出的内容。比如在GPT-3的预测阶段,只需要在输入样本前加上Translate English to French: 就可以提示模型接下来要进行翻译任务,即完全依靠模型在预训练阶段学到的知识来进行预测,不需要在下游任务上再依靠task-specific的 监督数据 对模型进行fine-tune就可直接使用,一方面减少了fine-tune模型的计算和存储代价,另一方面也给样本量极度缺乏的 少样本领域(zero/few-shot) 带来了福音。

    这种依靠 提示信息(Prompt) 来激发模型的内在潜能,挖掘模型在大规模预训练阶段学到的知识的做法引领了NLP领域的第四范式。人们逐渐开始思考如何更加 高效地利用 预训练语言模型的大量参数,如何将各种下游任务都统一到一个 通用框架 下,使得模型能够根据不同的提示信息进行不同的任务,从而不需要再为每个下游任务训练单独的模型。

    本文将对Prompt快速发展过程中一些重要论文的核心创新点进行简要介绍,而不会详细描述过多模型细节(欲知全貌建议直接读原论文)。

    论文:Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference (2020)

    该论文对Prompt模式的研究进行了规范,提出了 Pattern-Verbalizer 的概念:

    比如对于5分类任务,给定输入样本 a ,对应的模板函数 P 和标签映射函数 v 可为:

    注意这里多种Prompt模板函数以及答案映射函数都是 人工手动设计 的。

    然后利用新构建出来的 P(x),v(l) 对预训练模型进行fine-tune,其他更多细节不再展开,实验结果显示该方法在少样本任务上表现很好。

    论文:It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners ( PET原班人马

    GPT-3出来后显示了其在少样本学习上的惊人能力,但是其庞大的参数量也令人望而却步。而本文作者提出 “小模型在少样本学习上也可以有卓越表现” ,直接对标GPT-3这个庞然大物,从而奠定了 PET所提范式 在江湖的霸主地位,引起了各大武林人士的关注。

    该文证明了PET所提范式的有效性,同时作者还分析发现设计不同的 Prompt 模板和标签映射函数 Verbalizer 对模型性能影响较大,从而引起后来人员涌入改进Prompt模板和标签映射Verbalizer构造的浪潮中。

    论文:Making Pre-trained Language Models Better Few-shot Learners

    取代PET中手动构建Prompt模板和标签映射函数的过程,自动化搜索模板和标签映射,同时参考GPT-3中的in-context learning,在输入样本中加入示例(demonstrations)作为上下文,帮助模型更好地理解要做什么。

    实验表明,在少样本上,这种基于prompt的fine-tune效果能够明显好于标准的fine-tune,并且在样本中加入示例确实能够带来增益。

    也许未必非要构建人能理解的 离散tokens式 的Prompt,构建模型能够接受的 连续向量式 的Prompt也未尝不可。

    4.1 论文: Prefix-Tuning : Optimizing Continuous Prompts for Generation

    该文针对 NLG(Natural Language Generation) 任务,提出了构建连续的prompts。在预训练模型的每一层加上一个Prefix前缀矩阵,固定预训练模型的参数,仅训练前缀矩阵的参数,在few-shot设定下,性能超过标准的fine-tune。

    实验结果表明,在 全量 数据下,prompt-based fine-tune的效果能够 相当 standard fine-tune;在 少样本 下,能够 超过 standard fine-tune。

    4.2 论文:GPT Understands, Too ( P-tuning )

    该文针对 NLU(Natural Language Understanding) 任务,也提出了构建连续的prompts。与 Prefix-tuning 不同的是,这里的prompts仅需要加在输入层,而不用加在网络的每一层,就可以work well。

    利用 biLSTM 对prompts进行 Encode ,然后将编码后的 prompts embedding 和样本 x 输入预训练语言模型(PLM),之后同时fine-tune prompt embeddings 和 pretrained model 。

    考虑到优化连续的prompt向量有两个问题:

    因此作者提出先采用 biLSTM 作为 Prompt Encoder 来编码prompt向量。

    具体Prompt模板设计为:

    实验结果表明,在 全量 数据下,prompt-based fine-tune的效果能够 相当 或超过standard fine-tune。

    论文:The Power of Scale for Parameter-Efficient Prompt Tuning

    该文提出为每个下游任务设计自己的prompt,拼接到输入样本上,然后完全freeze预训练模型的权重,仅训练prompts对应的权重参数。发现随着模型体积的增大, Prompt-tuning 的效果逐渐追上标准 fine-tune 的效果。

    这里 Model Tuning 就是指标准的 fine-tune ,即在下游任务上对预训练模型的参数进行更新。

    最后对各论文实验结果的普遍规律进行一个总结。各论文采用的fine-tune策略主要有以下三种:

    <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    四、我要写论文,但不知道格式

    楼上那是野路子,拿去发表肯定让人骂死!

    给大家看看我发表的论文的格式吧!大家可以在中文期刊数据库中查到我的论文。

    标题、中文摘要、关键词、英文摘要、英文关键词、

    材料和方法、数据分析、讨论、参考文献。

    注意在文章中参考别人的东西要加肩标!

    不同蛋氨酸水平对长毛兔产毛性和血液生化指标的影响

    摘要:48只彩色长毛兔随机分成4个处理,处理组1为对照组,处理组2,3,4为试验组,试验组分别添加不同水平的蛋氨酸,旨在研究不同蛋氨酸水平对长毛兔产毛性能和血液生化指标的影响。试验结果:处理组2的TP , AIb, GPT, GOT,CHO,ALP、生长速度、兔毛抗拉力、韧性、密度与其他3个处理组差异显著(P<0. 05),处理组2兔毛直径较其他3个处理组大,差异显著(P<0. 05)。日粮中添加0. 2%蛋氨酸时,家兔的产毛性能达到最佳。

    关键词: 蛋氨酸水平 生化指标 产毛性能

    Effect of Different Methionine Levels on Production Performance and

    Blood Serum Traits of Wool Rabbit

    ( Heilongjiang August First Land Reclamation University, Daqing Heilongjiang 163319)

    ABSTRACT 48 wool rabbits were divided into four groups. Croup 1 was the control, the other were the treatments which fielded the methionine in different levels to bulid the(onsistence of foodstuffs of different mehtionine levels. The results were as follows: the Croup 2 was significantly higher than that of others(P<0. 05)in aspect of TP, Alb, GPT, GOT, CHO, ALP, growth speed, pull resistance, tenacity, density .The diameter of rabbit hair is significantly than the others(P<0.05). 0.2 % computation of Methionine is the best.

    KEY WORDS Methionine levels, Blood serum traits, Production of hair

    蛋氨酸为含硫氨基酸,是产毛家畜的第一限制性氨基酸。采用硫酸盐形式饲喂长毛兔,无机硫可很好地被吸收。蛋氨酸在饲料和微生物蛋自中并不富有,而产毛又需要高含硫氨基酸,因此在日粮中添加蛋氨酸,就成为提高产毛量的一个重要措施。为探讨北方寒区春季环境条件下不同蛋氨酸水平对长毛兔产毛性能和血液生化指标的影响,确定最佳蛋氨酸添加量,我们进行了相关的饲养试验。

    1 材料与方法

    1. 1 材料

    1. 1. 1试验动物试验采用单因子设计,将48只平均体重在1. 70士0. 291g左右的彩色长毛兔分为4个处理,每个处理3个重复,重复数为4只,各组间体重要求差异不显著(P>0.05)。试验兔饲养于同一室内的双列双层式笼中,每笼1只,条件一致。

    1. 1. 2试验日粮

    基础日粮组成(%):青干草40. 6 ,豆饼20、麦麸23、玉米12、食盐0. 4、预混料4;

    日粮营养水平为: 消化能11. 14 MJ/Kg、粗蛋白17. 57% 、粗纤维13. 36%、Ca 0. 71% 、P 0. 47%;

    处理组1为对照组,饲喂基础日粮;处理组2,3, 4为试验组,分别在4%的预混料中添加0.2%、0.4%、0.6%的蛋氨酸。

    1. 1. 3饲养管理

    预饲期为7天,试验期30天。每日饲喂3次,时间分别为7点、12点和20点。每只兔每日投喂精料135g ,青干草203g,自由饮水。[1]

    预饲结束后染毛,染毛部位为体躯左侧,染毛面积为2 x l0cm。染毛采用绚丽红色染发膏染毛,深染,使毛露出体表部分全部染成红色。试验期间,新毛为长毛兔本身颜色,而旧毛为绚丽红色,从而可以确定产毛长度。试验结束后采毛,将染色部位贴近皮肤剪毛,按编号单独保存,以备检测。

    1. 1. 4血清的制备及测定方法

    试验结束当日早晨,饲喂前心脏采血各5mL,4小时后离心分离血清,贮存于-20℃以下,备用。总胆固醇(CHO)的测定采用酶比色法,总蛋自(TP)的测定采用双缩尿法,白蛋自(Alb)的测定采用溴甲酚绿法,碱性磷酸酶(ALP)、谷草转氨酶(GOT)、谷丙转氨酶(CPT)的测定采用连续监测法。

    1. 1. 5仪器 恒温水浴锅,ZS-3型半自动生化分析仪、CYG-55型显微投影仪、YG001A型电子单纤维强力机。

    1. 1. 6试剂盒 均购于中生北控生物科技股份有限公司。

    1. 2 方法

    根据生化试剂盒上的说明进行各项生化指标的测定。

    1. 3 数据处理

    本试验结果以X士S表示,数据处理与分析采用国际通用的SAS软件ANOVA,并进行多重比较。

    2 结果与分析

    2.1血液生化指标(见表1)

    TP、Alb在一定程度上代表了日粮中蛋自质的营养水平及动物对蛋白质的消化吸收程度。处理组2与其他3个处理比较,差异显著(P<0.05),且含量最高,说明总蛋白含量随日粮蛋氨酸水平增加而增加。但处理组3、处理组4随日粮蛋氨酸添加量的增高,血清中TP、Alb含量反而减少,这说明蛋氨酸水平超过需要量时,氨基酸不平衡,动物机体不能对其有效地消化吸收,血清总蛋白沉积率并不高,这与李战胜(1994)的研究结果是一致的。

    CPT, GOT反应蛋白质合成和分解代谢的状况,从表1可以看出,以添加0. 2%蛋氨酸的处理组2的CPT、GOT含量为最高。

    胆固醇是细胞膜的成分[3],因而体内不能缺少它,但太多时会引起动脉硬化。肝脏是合成胆固醇的主要场所。本试验中血清CHO以处理组4最高,处理2血清中的CHO含量最低,由此看来,日粮蛋白水平过高,会造成血清胆固醇的大幅度增加,不利动物的健康生长。ALP是一组在碱性条件下具有较高活力的磷酸单酯水解酶,其活性高低可反映生长速度和生产性能,提高血液中ALP活性有利于提高日增重[4]。由表1可知,处理组2血清中A LP含量显著高于其他3个处理(P<0. 05),这与赵国成1997[5]的研究结果一致。

    2. 2 兔毛生长速度(见表2)

    每个样品测兔毛100根,用钢板尺测毛纤维的自然长度。

    生长速度决定长毛兔每年的剪毛次数,生长速度快,每年的剪毛次数就多。由表2可知,处理组2较其他3个处理的兔毛增长量高,兔毛的生长速度快,差异显著( P<0. 05)。这与李福昌(2003)[6]的研究结果一致。

    2.3 兔毛纤维直径(见表3)

    注:肩注字母不同为差异显著(P>0.05);相同为差异不显著( P<0. 05)。

    采用CYG-55型显微投影仪(上海光学仪器研究所)测量,每个样品测量100根。

    对成年毛兔而言,若饲料营养水平高,毛直径增大,产毛量增加,饲料营养水平低,毛直径变小,产毛量下降。但过粗的毛会使兔毛经济价值降低。由表3可知,处理组2较其他3个处理兔毛直径大,差异显著(P<0. 05)。

    2.4 抗拉力与韧性(见表4)

    注:肩注字母不同为差异显著(P>0.05);相同为差异不显著( P<0. 05)。

    采用YG001A型电子单纤维强力机(常州正大通用纺织仪器有限公司)测量,每个样品测量50根。

    抗拉力和韧性决定兔毛的等级,由表4可知,处理2兔毛的抗拉力、韧性较其他处理组高,差异显著(P<0.05)。

    2.5 兔毛密度(见表5)

    注:肩注字母不同为差异显著(P>0.05);相同为差异不显著( P<0. 05)。

    测量密度时,因长毛兔腹部、头部、臀部与尾部兔毛密度差异很大,所以在一个样品中分别在腹部、头部、背部与臀部采4个品样,各取1 cm-毛,然后取均值,剪成相同长度毛束,数出500根毛,称重,再将全部毛束称重,将全重除以500根毛重量,得出数值乘500即为兔毛密度。由表5可知,处理组2的兔毛密度显著高于其他3个处理,差异显著(P<0.05)。

    3 小结与讨论

    从饲养试验的结果看,处理组2,即日粮中添加0. 2%蛋氨酸组的生产性能要好于其他3个处理组。

    蛋氨酸作为含硫氨基酸,对产毛具有相当重要的作用。日粮中蛋氨酸在消化道内分解成游离氨基酸及小肽被吸收,在体内作为提供必需氨基酸及合成非必需氨基酸的氮源参与体内氮的代谢,但只有蛋氨酸水平达到平衡时,才能获得较高的生产性能,适当添加蛋氨酸会显著提高长毛兔的生产能力,但其超过需要量时,其转化率下降,且会造成体内氨基酸不平衡,并影响动物对其他营养物质的消化吸收,从而导致生产性能下降。

    4 参考文献

    [1] W. Schlolam.家兔生产指南.甘肃科学技术出版社. 2002. 112

    [2] 李战胜.过度地添加氨基酸会降低生产性能. International Feed .1994. 10: 2-4

    [3] 夏新山.袁书林.杨元青等.中草药添加剂及不同饲粮类型对生长育肥猪血液生化指标的影响.动物科学与动物医学.2003, 20 (12): 38-9

    [4] 梁之彦.生理生化.上海科学技术出版社.1990. 441-442

    [5] 赵国成.日粮中添加蛋氨酸对毛兔产毛性能的影响.当代畜牧,1997.02:58-59

    [6] 李福昌.姜文学.刘宏峰.李富宽.日粮蛋氨酸水平对安哥拉兔氮利用、产毛性能及血液指标的影响.畜牧兽医学报.2003.3:249

    [7] 黄邓萍.程济栋.川西地区德系安哥拉兔产毛性能和毛的理化特性及其相关分析.四川农业大学学报.1995.13:91-93 <script type="text/javascript" src="https://jss.51dongshi.com/hz/521ucom/nrhou.js"></script>

    以上就是关于如何用GPT写论文相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。


    推荐阅读:

    如何开一个自己的网店(如何开一个自己的网店)

    苹果手机如何下载chatGpt(苹果手机如何下载软件)_1

    《如何利用富媒体广告提升品牌影响力》

    小区钢结构景观设计

    投资10元一小时赚500导师