HOME 首页
SERVICE 服务产品
XINMEITI 新媒体代运营
CASE 服务案例
NEWS 热点资讯
ABOUT 关于我们
CONTACT 联系我们
创意岭
让品牌有温度、有情感
专注品牌策划15年

    GPT概念龙头(gpgpu概念股)

    发布时间:2023-03-13 15:41:51     稿源: 创意岭    阅读: 56        问大家

    大家好!今天让创意岭的小编来大家介绍下关于GPT概念龙头的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。

    ChatGPT国内免费在线使用,能给你生成想要的原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等

    你只需要给出你的关键词,它就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端,官网:https://ai.de1919.com

    本文目录:

    GPT概念龙头(gpgpu概念股)

    一、efi,uefi和bios的区别,gpt分区和mbr分区的区别

    BIOS+MBR和UEFI+GPT两种模式的区别:

    一般情况下,在安装官方原版系统时,你使用BIOS传统启动方式,你在安装界面重新分区就是MBR分区表;如果你使用的是UEFI启动方式,你在安装界面重新分区就是GPT分区表。

    BIOS+MBR这种启动模式兼容性较好。可以进行安装 32位和64位系统。

    UEFI可以以32位或64位模式运行,并具有比BIOS更多的可寻址地址空间,这意味着您的引导过程更快。

    另外,UEFI包含其他功能,它支持安全启动,这意味着可以检查操作系统的有效性,以确保没有恶意软件篡改引导进程。

    总之,BIOS和UEFI两种模式启动计算机过程可以概括为:

    BIOS先要对CPU初始化,然后跳转到BIOS启动处进行POST自检,此过程如有严重错误,则电脑会用不同的报警声音提醒,接下来采用读中断的方式加载各种硬件,完成硬件初始化后进入操作系统启动过程;

    而UEFI则是运行预加载环境先直接初始化CPU和内存,CPU和内存若有问题则直接黑屏,其后启动PXE采用枚举方式搜索各种硬件并加载驱动,完成硬件初始化,之后同样进入操作系统启动过程。

    MBR和GPT:

    MBR是传统的分区表类型,最大缺点是不支持容量大于2T的硬盘。GPT则弥补了MBR这个缺点,最大支持18EB的硬盘,是基于UEFI使用的磁盘分区架构。此外,BIOS只支持MBR引导系统,而GPT仅支持UEFI引导系统。由于GPT引导系统的方式与MBR不同,所以我们在安装系统时,才面临需要手动开启UEFI,或是将其设置成Legacy模式等方式加以解决。

    目前的电脑一般为UEFI启动,内存大于4G,安装32位系统意义不大;对于老主板还是建议使用BIOS+MBR,这种模式较为稳定。

    二、BERT详解(附带ELMo、GPT 介绍)

    首先我会详细阐述 BERT 原理,然后简单介绍一下 ELMO 以及 GPT

    BERT 全称为 B idirectional E ncoder R epresentation from T ransformer,是 Google 以 无监督的方式利用大量无标注文本 「炼成」的语言模型,其架构为 Transformer 中的 Encoder(BERT=Encoder of Transformer)

    我在 Transformer 详解 中已经详细的解释了所有 Transformer 的相关概念,这里就不再赘述

    以往为了解决不同的 NLP 任务,我们会为该任务设计一个最合适的神经网络架构并做训练,以下是一些简单的例子

    不同的 NLP 任务通常需要不同的模型,而设计这些模型并测试其 performance 是非常耗成本的(人力,时间,计算资源)。如果有一个能 直接处理各式 NLP 任务的通用架构 该有多好?

    随着时代演进,不少人很自然地有了这样子的想法,而 BERT 就是其中一个将此概念付诸实践的例子

    Google 在预训练 BERT 时让它同时进行两个任务:

    1. 漏字填空

    2. 下个句子预测

    对正常人来说,要完成这两个任务非常简单。只要稍微看一下前后文就知道完形填空任务中 [MASK] 里应该填 退了 ;而 醒醒吧 后面接 你没有妹妹 也十分合理(?)

    接下来我会分别详细介绍论文中这两个任务的设计细节

    在 BERT 中,Masked LM(Masked Language Model)构建了语言模型,简单来说,就是 随机遮盖或替换 一句话里面的任意字或词,然后让模型通过上下文预测那一个被遮盖或替换的部分,之后 做 Loss 的时候也只计算被遮盖部分的 Loss ,这其实是一个很容易理解的任务,实际操作如下:

    这样做的好处是,BERT 并不知道 [MASK] 替换的是哪一个词,而且 任何一个词都有可能是被替换掉的,比如它看到的 apple 可能是被替换的词 。这样强迫模型在编码当前时刻词的时候 不能太依赖当前的词 ,而要考虑它的上下文,甚至根据上下文进行 "纠错"。比如上面的例子中,模型在编码 apple 时,根据上下文 my dog is,应该 把 apple 编码成 hairy 的语义而不是 apple 的语义

    我们首先拿到属于上下文的一对句子,也就是两个句子,之后我们要在这两个句子中加一些特殊的 token: [CLS]上一句话[SEP]下一句话[SEP] 。也就是在句子开头加一个 [CLS] ,在两句话之间和句末加 [SEP] ,具体地如下图所示

    可以看到,上图中的两句话明显是连续的。如果现在有这么一句话 [CLS] 我的狗很可爱 [SEP] 企鹅不擅长飞行 [SEP] ,可见这两句话就 不是连续的 。在实际训练中,我们会让这两种情况出现的数量为** 1:1**

    Token Embedding 就是正常的词向量,即 PyTorch 中的 nn.Embedding()

    Segment Embedding 的作用是用 embedding 的信息让模型 分开上下句 ,我们给上句的 token 全 0,下句的 token 全 1,让模型得以判断上下句的起止位置,例如

    Position Embedding 和 Transformer 中的不一样,不是三角函数,而是 学习出来的

    BERT 预训练阶段实际上是将上述两个任务结合起来,同时进行,然后将所有的 Loss 相加,例如

    BERT 的 Fine-Tuning 共分为 4 种类型,以下内容、图片均来自台大李宏毅老师 Machine Learning 课程 (以下内容 图在上,解释在下)

    为什么要用CLS?

    这里李宏毅老师有一点没讲到,就是为什么要用第一个位置,即 [CLS] 位置的 output。这里我看了网上的一些博客,结合自己的理解解释一下。因为 BERT 内部是 Transformer,而 Transformer 内部又是 Self-Attention, 所以 [CLS] 的 output 里面肯定含有整句话的完整信息 ,这是毋庸置疑的。但是 Self-Attention 向量中,自己和自己的值其实是占大头的,现在假设使用 的 output 做分类,那么这个 output 中实际上会更加看重 ,而 又是一个有实际意义的字或词,这样难免会影响到最终的结果。但是 [CLS] 是没有任何实际意义的,只是一个占位符而已,所以就算 [CLS] 的 output 中自己的值占大头也无所谓。当然你 也可以将所有词的 output 进行 concat,作为最终的 output

    首先将问题和文章通过 [SEP] 分隔,送入 BERT 之后,得到上图中黄色的输出。此时我们还要训练两个 vector,即上图中橙色和黄色的向量。首先将橙色和所有的黄色向量进行 dot product,然后通过 softmax,看哪一个输出的值最大,例如上图中 对应的输出概率最大,那我们就认为 s=2

    同样地,我们用蓝色的向量和所有黄色向量进行 dot product,最终预测得 的概率最大,因此 e=3。最终,答案就是 s=2,e=3

    你可能会觉得这里面有个问题,假设最终的输出 s>e 怎么办,那不就矛盾了吗?其实在某些训练集里,有的问题就是没有答案的,因此此时的预测搞不好是对的,就是没有答案

    以上就是 BERT 的详细介绍,参考以下文章

    ELMo是Embedding from language Model的缩写,它通过无监督的方式对语言模型进行预训练来学习单词表示

    这篇论文的想法其实非常简单,但是效果却很好。它的思路是用 深度的双向 Language Model 在大量未标注数据上训练语言模型 ,如下图所示

    在实际任务中,对于输入的句子,我们使用上面的语言模型来处理它,得到输出向量,因此这可以看作是一种 特征提取 。但是 ELMo 与普通的 Word2Vec 或 GloVe 不同,ELMo 得到的 Embedding 是 有上下文信息

    具体来说,给定一个长度为 N 的句子,假设为 ,语言模型会计算给定 的条件下出现 的概率:

    传统的 N-gram 模型 不能考虑很长的历史 ,因此现在的主流是使用 多层双向 LSTM 。在时刻 ,LSTM 的第 层会输出一个隐状态 ,其中 , 是 LSTM 的层数。最上层是 ,对它进行 softmax 之后得到输出词的概率

    类似的,我们可以用 一个反向 来计算概率:

    通过这个 LSTM,我们可以得到 。我们的损失函数是这两个 LSTM 的 加和 :

    这两个 LSTM 有各自的参数 和 ,而 Word Embedding 参数 和 Softmax 参数 是共享的

    为了用于下游(DownStream)的特定任务,我们会把不同层的隐状态组合起来,具体组合的参数是根据不同的特定任务学习出来的,公式如下:

    GPT 得到的语言模型参数不是固定的,它会根据特定的任务进行调整(通常是微调),这样的到的句子表示能更好的适配特定任务。它的思想也很简单,使用 单向 Transformer 学习一个语言模型 ,对句子进行无监督的 Embedding,然后 根据具体任务对 Transformer 的参数进行微调 。GPT 与 ELMo 有两个主要的区别:

    这里解释一下上面提到的 单向 Transformer 。在 Transformer 的文章中,提到了 Encoder 与 Decoder 使用的 Transformer Block 是不同的。在 Decoder Block 中,使用了 Masked Self-Attention ,即句子中的每个词都只能对 包括自己在内的前面所有词进行 Attention ,这就是单向 Transformer。GPT 使用的 Transformer 结构就是将 Encoder 中的 Self-Attention 替换成了 Masked Self-Attention ,具体结构如下图所示

    训练的过程也非常简单,就是将 n 个词的词嵌入 ( ) 加上位置嵌入 ( ),然后输入到 Transformer 中,n 个输出分别预测该位置的下一个词

    这里的位置编码没有使用传统 Transformer 固定编码的方式,而是动态学习的

    Pretraining 之后,我们还需要针对特定任务进行 Fine-Tuning。假设监督数据集合 的输入 是一个词序列 ,输出是一个分类的标签 ,比如情感分类任务

    我们把 输入 Transformer 模型,得到最上层最后一个时刻的输出 ,将其通过我们新增的一个 Softmax 层(参数为 )进行分类,最后用 CrossEntropyLoss 计算损失,从而根据标准数据调整 Transformer 的参数以及 Softmax 的参数 。这等价于最大似然估计:

    正常来说,我们应该调整参数使得 最大,但是 为了提高训练速度和模型的泛化能力 ,我们使用 Multi-Task Learning,同时让它最大似然 和

    这里使用的 还是之前语言模型的损失(似然),但是使用的数据不是前面无监督的数据 ,而是使用当前任务的数据 ,而且只使用其中的 ,而不需要标签

    针对不同任务,需要简单修改下输入数据的格式,例如对于相似度计算或问答,输入是两个序列,为了能够使用 GPT,我们需要一些特殊的技巧把两个输入序列变成一个输入序列

    ELMo 和 GPT 最大的问题就是 传统的语言模型是单向的 —— 我们根据之前的历史来预测当前词。但是我们不能利用后面的信息。比如句子 The animal didn’t cross the street because it was too tired 。我们在编码 it 的语义的时候需要同时利用前后的信息,因为在这个句子中, it 可能指代 animal 也可能指代 street 。根据 tired ,我们推断它指代的是 animal 。但是如果把 tired 改成 wide ,那么 it 就是指代 street 了。传统的语言模型,都 只能利用单方向的信息 。比如前向的 RNN,在编码 it 的时候它看到了 animal 和 street ,但是它还没有看到 tired ,因此它不能确定 it 到底指代什么。如果是后向的 RNN,在编码的时候它看到了 tired ,但是它还根本没看到 animal ,因此它也不能知道指代的是 animal 。 Transformer 的 Self-Attention 理论上是可以同时关注到这两个词的,但是根据前面的介绍,为了使用 Transformer 学习语言模型,必须 用 Mask 来让它看不到未来的信息 ,所以它也不能解决这个问题的

    根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来也行,就是根据下文预测前面的单词,这种类型的LM被称为自回归语言模型。(GPT,ELMO)GPT 就是典型的自回归语言模型。ELMO尽管看上去利用了上文,也利用了下文,但是本质上仍然是自回归LM,这个跟模型具体怎么实现有关系。ELMO是做了两个方向(从左到右以及从右到左两个方向的语言模型),但是是分别有两个方向的自回归LM,然后把LSTM的两个方向的隐节点状态拼接到一起,来体现双向语言模型这个事情的。所以其实是两个自回归语言模型的拼接,本质上仍然是自回归语言模型。

    自回归语言模型有优点有缺点,缺点是只能利用上文或者下文的信息,不能同时利用上文和下文的信息,当然,貌似ELMO这种双向都做,然后拼接看上去能够解决这个问题,因为融合模式过于简单,所以效果其实并不是太好。它的优点,其实跟下游NLP任务有关,比如生成类NLP任务,比如文本摘要,机器翻译等,在实际生成内容的时候,就是从左向右的, 自回归语言模型天然匹配这个过程 。而Bert这种DAE模式,在生成类NLP任务中,就面临训练过程和应用过程不一致的问题,导致 生成类的NLP任务到目前为止都做不太好

    自回归语言模型只能根据上文预测下一个单词,或者反过来,只能根据下文预测前面一个单词。相比而言,Bert通过 在输入X中随机Mask掉一部分单词 ,然后预训练过程的主要任务之一是根据上下文单词来预测这些被Mask掉的单词,如果你对Denoising Autoencoder比较熟悉的话,会看出,这确实是典型的DAE的思路。那些被Mask掉的单词就是在输入侧加入的所谓噪音。类似Bert这种预训练模式,被称为DAE LM。

    这种DAE LM的优缺点正好和自回归LM反过来,它能比较自然地融入双向语言模型,同时看到被预测单词的上文和下文,这是好处。缺点是啥呢? 主要在输入侧引入[Mask]标记,导致预训练阶段和Fine-tuning阶段不一致的问题 ,因为Fine-tuning阶段是看不到[Mask]标记的。DAE吗,就要引入噪音,[Mask] 标记就是引入噪音的手段,这个正常。

    XLNet的出发点就是:能否 融合自回归LM和DAE LM两者的优点 。就是说如果站在自回归LM的角度,如何引入和双向语言模型等价的效果;如果站在DAE LM的角度看,它本身是融入双向语言模型的,如何抛掉表面的那个[Mask]标记,让预训练和Fine-tuning保持一致。当然,XLNet还讲到了一个Bert被Mask单词之间相互独立的问题。

    三、mbr和guid分区哪个比较好?

    GUID分区。

    1、分区信息信息储存:在MBR硬盘中,分区信息直接存储于

    扩展资料:

    guid分区注意事项:

    MBR支持win7版本系统以下的32位和64位。GUID(GPT)支持win7版本以上的64位系统(不支持32位系统),比如win8,win10系统。

    MBR分区表:Master Boot Record,即硬盘主引导记录分区表,只支持容量在 2.2TB 以下的硬盘,超过2.2TB的硬盘却只能管理2.2TB,最多只支持4个主分区或三个主分区和一个扩展分区,扩展分区下可以有多个逻辑分区,适用Win7版本以下的系统(包含Win7)。

    参考资料来源:百度百科-GUID

    参考资料来源:百度百科-mbr

    参考资料来源:百度百科-分区表

    四、关于UEFI启动+GPT分区 的一些经验

    随着时代和科技的发展,电脑越来越普及,似乎人人都可以张嘴就说“我懂电脑”,但是总有一些看起来完全不懂但实际上非常基础的东西让“懂”与“不懂”清晰地划清界限。比如UEFI+GPT就是其中之一。那些之前认为自己已经精通电脑的人,遇到这个东西,忽然发现自己连以前自以为驾轻就熟的分区、装 系统 都不会了。 

    尽管UEFI以及GPT从诞生迄今已经 十余年 了,但是对于绝大多数人来讲它们是完全陌生的,甚至根本就不知道还有这种东西。 

    但是由于 Windows 8操作系统的面世,预装Windows8的电脑开始统一采用UEFI+GPT,很多人被迫接触到,感觉就像突然从天上掉下来的东西一样,无所适从,一筹莫展——“这到底是个什么东西呢?” 

    一旦出现系统问题,唯一能做的解决办法除了品牌机自带的系统还原,最大能力不过就是把UEFI关闭,把硬盘从GPT再转成MBR,从而彻底毁掉UEFI+GPT的优势,重新回到陈旧落后的BIOS+MBR的系统安装和运行方式上来。而每台电脑的具体情况又不尽相同,有时候即使想用BIOS+MBR也不是肯定能成功的——“我该怎么办啊?” 

    正文:  

    之前很长一段时间对UEFI+GPT没有头绪,有种无处下手的感觉,虽然UEFI+GPT安装系统一直没遇到什么障碍,但是即使查阅了相当数量的资料,在认识上对于UEFI+GPT也没有一个完整的概念,总觉得这是一个很难理解的东西,不得要领。不像最初接触BIOS+MBR的时候那么容易入门直至熟练操作。 

    先说关于什么是UEFI和GPT,在此就不做详解了,感兴趣的都了解,不感兴趣的说了也没什么用处。只说一点最基本的,MBR分区结构只能支持到2.2T的硬盘,超过2.2T就必须采用GPT分区,而就Windows而言,采用了GPT的硬盘,要想安装并启动Windows操作系统,只能选择高于XP的64位操作系统,并且采用UEFI方式安装、引导,否则无法启动,而包括XP在内及其之前的32位操作系统完全不支持GPT,别说安装、引导系统,直接无法识别。3T硬盘时代并不遥远,要想正常使用你的电脑,这就是采用UEFI+GPT的必要性。 

    而最关键之处在于, 照目前的形势来看,由于预装Windows8电脑的推动,UEFI+GPT已经是大势所趋,与是否2.2T以上硬盘也已经没什么直接关系,也许就在不久之后的某一天开始所有的电脑全部使用UEFI单一启动,不会再兼容传统BIOS。  

    再说一下关于BIOS+MBR,从接触电脑十几年来,一直都是用的这种组合,直至今日,不敢说对此有多么了解,最起码在日常操作中基本无障碍了。比如:Windows各个版本甚至再+ Linux +Mac的混合安装、引导驾轻就熟,任意顺序安装,任意创建、修复引导,多硬盘混合引导,分区表损坏、主引导记录损坏的修复、重建等等,都不存在任何问题。 

    而从一接触UEFI+GPT,总是感觉这个东西无法理解。甚至一筹莫展,哪怕是引导损坏这样之前在BIOS+MBR里不叫事的事情,面对UEFI+GPT都束手无策,查了很多资料,除了重装系统, 在国内网络范围内,全网竟然找不到任何一篇具体解决问题的文章。 现在回想,很长一段时间内都无法理解这些问题,很多莫名其妙的所谓专业文章的误导在其中作了重要贡献。 

    后来索性抛开所有的那些乱七八糟的观点、定义,按照自己的想法去摸索,经过近十天,几十遍重装系统,反复的假设、实验,总算是对UEFI+GPT有了一个总体的概念和较为清晰的认识, 最关键的在于能够随意进行UEFI+GPT的安装和引导修复了,这是最重要的,个人观点一直都是,必须从实际出发,即使了解的再多,什么问题也解决不了,纸上谈兵,一切等于零。 可以毫不夸张的说, 至少目前为止,本文是全网络唯一一篇对UEFI+GPT进行实用性介绍和以及解决实际问题的文章。  

    关于UEFI的优越特性,比如 可操作性、安全性、兼容性、可扩展性之 类的问题,在此不再多说,这是开发人员的事情,和我没有关系。仅仅总结几点两者在系统安装及引导方式方面一些异同,帮助同样有此困惑的人理解这个东西: 

    【重要提示:  

    本文旨在“授之以渔”,力求融会贯通,知其然更知其所以然。因此本文既不包含网络上“技术文章八股文”式的定义、理论的堆砌和释义,更不是“小白必备”的傻瓜式手把手操作教程,如果对以上两种千篇一律的所谓“技术文章”有偏执的爱好,请务必及时停止浏览,另寻其好。】  

    不同点:  

    1.BIOS+MBR安装系统要求硬盘只要存在非隐藏、活动的主分区就可以了;而UEFI+GPT要求硬盘上除了存在ESP分区,还必须存在至少一个主分区 

    2.BIOS+MBR一旦系统安装好之后,如果系统引导文件在单独的分区,此分区可以在操作系统中可见,也可以设置此分区为隐藏,系统都可以正常启动;而UEFI+GPT系统引导文件所在的ESP分区在操作系统中为不可见 

    3.BIOS+MBR启动要求的活动的主分区不是唯一固定的,可以任意设定某一分区为活动的主分区,然后MBR就可以通过分区表指引操作系统从此分区启动,也就是说,可以在任意分区(主分区无论是否活动或者扩展分区)安装操作系统,只要存在任意的活动主分区,就可以从此分区启动操作系统;而UEFI+GPT只能把系统引导文件放置在ESP分区 

    4.BIOS+MBR的系统引导文件可以和系统文件在同一分区的根目录,也可以不与系统文件同一分区,只要系统引导文件所在分区为活动的主分区即可启动操作系统;而UEFI+GPT只能把系统引导文件放置在ESP分区,且操作系统必须在另外的主分区,也就是说, UEFI+GPT强制要求系统启动文件与系统文件必须分离,不在同一分区。  

    相同点: 

    1.BIOS+MBR和UEFI+GPT的系统引导文件都可以放置在单独的分区,这一点在上面的第4点里已经说的很清楚 

    2.BIOS+MBR的系统引导文件所在的活动主分区位置不是固定的,可以随意设置任意分区满足此条件,UEFI+GPT的ESP的位置也是可以随意设置的,在硬盘起始位置、中间位置、末尾,都可以,只要分区属性和其中的引导文件正确,就可以引导启动操作系统(参考文中附图) 

    3.BIOS+MBR的系统引导文件所在的分区和UEFI+GPT的ESP分区都可以分配任意大小,而不是ESP必须100M 

    4.BIOS+MBR安装系统所需的非隐藏、活动主分区和UEFI+GPT的系统的ESP分区,都可以同时设置多个,但是即使有多个相同属性的分区,系统安装时安装程序都是自动写入第一个,启动时也都是从第一个启动(参考文中附图) 

    补充:  

    1.使用BIOS+MBR和UEFI+GPT安装的系统文件是一模一样的,唯一的区别只是引导方式的不同,因此使用GHOST手动备份的系统,MBR和GPT可以任意交叉还原,只要做好引导修复就没有任何问题 

    2.GHOST始终是系统备份还原神器,只要熟练掌握GHOST手动操作,至少目前为止Windows系统的范围之内,无论什么版本,无论MBR还是GPT,都可以随意备份还原。 

    3.MBR与GPT分区互转的话,与“删除所有分区”以及“全盘格式化”没有任何必然联系,你格式化一万遍硬盘也还是原来的分区结构,只有通过转换操作才可以到另一种,而这个转换操作与“删除所有分区”以及“全盘格式化”没什么关系。 

    着重强调一点:  

    以上所有经验均基于UEFI+GPT的组合,而实际上, UEFI启动(Windows操作系统)的话,并不强制要求硬盘必须为GPT分区,而是只要硬盘上存在EFI启动文件且位于FAT(16/32)分区就可以了(UEFI无法从NTFS分区启动)。 因此如果是小于2.2T的硬盘,不必非得转换成GPT也可以引导系统启动。也就是说,UEFI+MBR也是可行的,而GPT硬盘的话,则必须使用UEFI引导,BIOS无法原生引导GPT硬盘上的操作系统(Windows)。 

    关于这一点,如果感觉不能理解的话,可以通过以下具体应用来参考。 

    注:  

    综观网上那些关于UEFI的所谓技术类文章,除了毫无实用价值和实际意义,而且都不同程度的存在各种各样的因循误导,继而被以讹传讹,最终成为一些人坚信不疑的“定律”。这样的误导主要表现为两点: 

    1. 就是刚刚说的 ,“UEFI启动系统必须是GPT分区”, 这个已经说得很明白了,并且有实例解析,无需再讨论 

    2. 另外一个就是不知道从什么时候什么人开始谣传的 “UEFI的优势就是启动速度快” 或者 “UEFI启动比传统BIOS启动速度快”。 无论UEFI还是GPT,与电脑启动速度没有任何必然联系。或者说,只要硬件环境相同、系统一样,无论UEFI+GPT安装还是BIOS+MBR安装系统,启动速度没有区别 

    GPT 

    MBR 

    附:部分Windows桌面操作系统对GPT的支持  

    数据读写系统启动  

    WindowsXP32位不支持GPT不支持GPT 

    WindowsXP64位支持GPT不支持GPT 

    WindowsVista32位支持GPT不支持GPT 

    WindowsVista64位支持GPT支持GPT(需UEFI) 

    Windows732位支持GPT不支持GPT 

    Windows764位支持GPT支持GPT(需UEFI) 

    Windows832位支持GPT不支持GPT 

    Windows864位支持GPT支持GPT(需UEFI) 

    有了以上的经验总结,就可以轻松解决以下问题了: 

    1.UEFI+GPT环境下以任意方式安装操作系统(单系统或者多系统) 。这个不必详解了 

    2.最主要的问题: UEFI+GPT引导修复操作(EFI引导文件损坏、ESP分区损坏或者丢失之后手动重建EFI引导等等)。 这个在此也不做详解,这是 这段时间反复研究、实践的最重要成果 ,因此姑且算是有所保留卖个关子吧,如果是结合以上几点经验总结,对UEFI+GPT有一定的了解之后,应该不难揣摩出办法 

    3. 如果主板不支持UEFI,使用折中的办法来解决大硬盘使用问题 ,这个问题以前我也已经多次提过。 

    第一种办法就是使用多块硬盘,MBR+GPT组合,MBR 硬盘作为启动引导盘。 

    小于2.2T的硬盘采用MBR,大于2.2T的硬盘采用GPT,这样的话,解决方案就很灵活了,可以根据以上所列相同点的第1条和补充里面第2条,使用MBR硬盘建一个非隐藏活动主分区,放置系统引导文件,然后将系统安装在MBR硬盘或者GPT硬盘都可以,无论单系统还是多系统都无所谓,两块硬盘交叉安装操作系统也没有任何问题 

    强调两点 : 

    1.这样安装的话不限于64位操作系统及XP以上版本,理论上只要是能对GPT硬盘进行读写的系统版本就可以安装。实际测试,32位XP和2003sp1以及之前的版本,电脑事先安装GPT硬盘的情况下,即使系统安装在MBR硬盘,原版系统安装,没有问题,如果是Ghost系统,有可能出现卡死或者蓝屏等问题导致无法顺利安装;先在MBR硬盘安装好系统,然后再装GPT硬盘,无论原版还是Ghost系统都没有问题,只是GPT分区无法识别(解决方法很简单,就是使用2003sp2的disk.sys文件替换到以上系统,就可以完美识别GPT分区,此法简单易操作,且不涉及系统稳定问题,感兴趣的话可以自行搜索)。64位XP安装在MBR硬盘,引导、启动都没有问题,安装在GPT硬盘无法引导。其他系统无论32位还是64位,无论安装在MBR还是GPT,都可以正常引导启动; 

    2.BIOS安装系统到GPT硬盘仅限于Ghost方式,Ghost解压完毕后手动修复引导即可。 

    第二种办法是单块大于2.2T的硬盘+U盘或者光盘组合  

    使用GPT分区结构对硬盘进行分区,是否创建ESP分区都无所谓,因为主板不支持UEFI,创建此分区也没什么用,全凭个人爱好了。然后只能使用Ghost方式解压安装操作系统到硬盘,无论单系统还是多系统,全部安装完毕后,准备一个U盘,大小无所谓,只要不小于十几M就行,使用分区软件设为活动主分区,插在电脑上。进PE(2003sp1以上版本),手动或者使用工具软件修复单系统或者多系统引导,将引导文件写入U盘。然后就可以使用此U盘启动所安装的单系统或者多系统了。此方法实际上就是用U盘代替了第一种方法中的小硬盘而已,没什么本质区别。(这个方法大概10年前我就在电脑论坛发过帖子,当时考虑的是用U盘做一个 系统启动钥匙 ,因为系统引导文件在U盘上,电脑如果不插这个U盘是无法启动的。MBR硬盘系统:Windows864位+Windows732位+WindowsXP32位,GPT硬盘系统:Windows832位+Windows764位+WindowsVista32位,测试环境:杂牌945主板、32M老U盘,测试通过。) 

    另外还可以再使用光盘来代替U盘,具体方法说起来更简单,用软件创建一个可启动光盘(创建方法自行查询,会做的不用讲,压根没接触过的,另开帖子专门讲也不一定看得懂),然后将上面U盘里的系统启动文件加进去刻录就可以了。然后使用此光盘启动电脑,效果和U盘是一样的。此方法仅仅作为一种可行性的介绍,不推荐使用,U盘比这个方便的多,没必要多此一举。 

    备注: 使用此方法,理论上来讲凡是可以对GPT进行读写的系统都适用,但实际上XP以上系统无论32位还是64位操作系统全部测试可行,但是2003sp1及XP64位这些可以读写GPT的系统也不行,这个不知道是由于NT5.X的ntldr引导机制还是其他的什么原因,有知道原因的朋友不吝赐教! 

    注:  

    1.除专门标明“Ghost系统”,本文所提及的系统安装均为 微软 原版Windows系统,不包含任何修改版本 

    2.非UEFI主板安装原版系统到GPT磁盘,只能采取wim直接解压到分区或者先将系统Ghost化,然后解压安装的办法。 

    3.本文所有结论全部为反复多次实际测试结果,不是设想、假设,更不是想象或者幻想以及想当然的以为 

    4.本文内容已经多次修订和修改,这是个人的一点经验总结,难免有纰漏以及表达不准确之处,望有相关经验的朋友给予更多帮助

    附注:  

     

    鉴于许多的网友浏览本文之后提出如下问题,因此 酷站网软 特集中在此做如下补充说明,不再过多赘述及一一答复:

    原本很早之前就写了一篇关于 预装win8的电脑改其他系统以及安装多系统 的文章,虽然经过多次修改,最后还是放在电脑里没有在任何地方发表出来。 

    虽然那是亲自实践过 多个品牌和型号 的预装机器之后总结出来的经验,但是仍然发现 在其他品牌和型号的电脑上根本无法通用 。而我不可能也没条件遍试所有的机器,因此此篇文章就此搁浅。 

    因此我在我的这篇文章里面没有涉及任何 预装win8系统的电脑改系统 的问题。 

    这是我的一贯态度,我所写的都是我亲身实践、确实可行、不需讨论的,在我这里不可能出现“我觉得”“我认为”“应该是”这类想象或者幻想的东西。 

    (在此还是要特别强调几点: 

    1.这个意思并不是说“预装win8的电脑改其他系统以及安装多系统”是完全不可行的,只是目前为止还没找到通用的方法。也就是说可能在某个品牌和型号的电脑上按照某种方法安装非常顺利,但是同样的方法用在其他品牌和型号的电脑上可能完全不适用。 

    2.不管是用何种方法,比如Ghost、PE、nt6 hdd installer、快捷安装器、直接setup、在vhd装、全盘转换成mbr、手动写引导等等方法,将其他系统装进硬盘,只要通过这块主板启动,就要面对安装失败的问题,因此制约因素在主板上,并不在于采用什么方式安装系统

    https://www.kzwr.com/article/110118

    以上就是关于GPT概念龙头相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。


    推荐阅读:

    ChatGPT中文版苹果手机(chat苹果版下载)

    chatGPT估值(chargepoint 估值)

    ChatGPT中文版1.2(chatGPT中文版下载苹果)

    韶关酒店外部景观设计(韶关酒店外部景观设计招聘)

    卖课程的平台有哪些(十大知识付费平台排名)