HOME 首页
SERVICE 服务产品
XINMEITI 新媒体代运营
CASE 服务案例
NEWS 热点资讯
ABOUT 关于我们
CONTACT 联系我们
创意岭
让品牌有温度、有情感
专注品牌策划15年

    人工智能模型是什么(人工智能模型是什么模型)

    发布时间:2023-03-13 09:24:54     稿源: 创意岭    阅读: 128        问大家

    大家好!今天让创意岭的小编来大家介绍下关于人工智能模型是什么的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。

    ChatGPT国内免费在线使用,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等

    只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端

    官网:https://ai.de1919.com

    本文目录:

    人工智能模型是什么(人工智能模型是什么模型)

    一、人工智能是什么?

    简而言之,人工智能就是用人造的方法模拟智能。

    这里包含两个关键概念,一个是“人造”,另一个就是“智能”。

    “人造”好理解,就是用人工的方法去模拟。但是“智能”是什么呢?

    在回答什么是“智能”前,让我们先看看以下哪个物品有智能:

    第一排很好判断,大家都认为它们是有智能的。

    那第二排的呢?

    1. 向日葵有智能吗?它可以跟随太阳移动。

    2. 搜索引擎有智能吗?它能把输入问题的答案列出来,比如:输入“著名的餐馆”,他可以给出著名餐馆的列表。

    3. 抽水马桶有智能吗?它在放水后能够知道何时停止放水,转而进行蓄水,当蓄满的时候又知道何时停止蓄水。

    第二排的物品(向日葵、搜索引擎、抽水马桶)和第一排的物品(现代人类、智人、猫)都有个共同之处,那就是: 它们能够根据外部环境的变化,从而自发的改变自己。

    比如:向日葵可以根据太阳的移动而移动自己的花盘;搜索引擎可以根据用户的不同输入展示不同的结果;抽水马桶可以根据水位来决定自己是放水还是蓄水,还是停止。

    进一步的一个问题是,同样都可以根据外部环境改变而自发的改变自己,那么这两排的物品有什么不同吗?

    这个区别还是很明显的,那就是: 在面对外部环境新的变化的时候,是否可以自主学习、理解环境,从而在新的外部环境下自发改变自己?

    第二排的物品都是为了某些特定情景提前设定好的,如果跳出这个特点情景,它们就不会有任何自发行为。

    比如:向日葵只是在发芽到花盘盛开前的这段时间是随着太阳移动的。搜索引擎也是通过事先计算好的关键字对应关系来呈现结果。最后的抽水马桶只是为了冲水这一件事情设计的。它们都不会对新的情景产生新的动作。

    “智能”通常具备以下两个特征:

    1. 根据外部环境的状态变化,而自发的决定自己的状态。

    2. 在面对新的外部环境的时候,可以自己学习、理解环境,从而在新的环境状态下自发决定自己的状态。

    根据这两个特征,第一排的物品是有智能的,而第二排的物品是没有智能的,只是有“功能”。

    人工智能就是用人造的方法模拟智能,模拟的智能能达到智能物品的两个特征即可。

    目前大家已知的智能物中,人类是被认为智能最强的。那么有没有什么方法来判断人造智能物是否达到了人类智能的级别?

    著名的现代计算机之父图灵曾经提出过一个思想实验,能通过这个实验的,就被认为拥有人类智能的级别。这个思想实验也被称为 “图灵测试” 。

    图灵测试是这样的,一个人和一个机器在隔开的情况下,通过一些装置(如键盘)向这个机器随意提问,进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这个机器就通过了测试,被认为拥有人类级别的智能。

    在图灵测试中,图灵并没有检验机器是否有合作、分工、演化、自由意志等因素,只是单纯的检测机器是否有足够的智能。但是这并没有妨碍哲学家讨论这些问题,哲学家认为,如果这些因素机器都能满足,那么这种智能叫强人工智能,如果不满足这些因素,而仅仅是通过了图灵测试,那么是一种弱人工智能。

    目前在人工智能领域还没有一种机器(或系统)能通过图灵测试。

    “智能”有一个特征就是在面对新的外部环境的时候,可以自己学习、理解环境,从而在新的环境状态下决定自己的状态。那么要如何才能学习呢?

    人类的学习方法是这样的:从一个问题的一些经验中进行归纳、演绎、联想,得出结论,进一步将结论用于解决这一类的问题上,在这个推广过程中不断利用上述步骤修正结论。人类的经验非常丰富,这些经验有的成为了全人类的一些共识,这使得人类的学习速度加快。

    那么如果是一个机器呢,我们该如何让一个机器学习?它能学习到什么程度?

    一个模拟人类学习的方法是: 给机器输入关于这个问题的数据,利用一些数学方法让机器根据这些数据做归纳、演绎,从而得出结论,再利用这个结论解决这一类的问题 。这个过程,称为机器学习。

    在机器学习中,得出的结论有个特定的名称,叫做“模型”;让机器根据数据做归纳、演绎的过程叫做“模型训练”;将模型用于解决这类问题的过程,叫做“泛化”。整个过程如下图所示:

    人们利用泛化结果的好坏来评价学习的模型的好坏。

    机器学习由于其方法的普适性和解决问题的泛化能力,被很多领域都广泛使用。目前,机器学习的成功已经广泛使用在很多方面。比如: 判断一封电子邮件是否是垃圾邮件,一些新闻资讯类App自动呈现用户感兴趣的内容,根据诊断结果判断一些病的患病几率,自动驾驶,和人类对弈围棋且战胜人类,图片中的一些元素的识别,语音翻译,虚拟个人助理等等。随着机器学习在这些应用领域的不断使用,机器也在不断优化自己的结果,从而不断提高机器学习的质量和效果。

    照这个趋势下去,机器会超越人类吗?

    机器学习和人类学习相比,机器学习还有以下几个硬伤:

    1. 缺少跳跃式的建模。

    目前机器学习的建模方法是逐步递进的,缺少了一些跳跃式的前进。人类经常有灵光一现等想象力飞跃的时刻,但是机器学习没有,它只有层层递进,逐步收敛,最终得到模型。

    2. 计算能力还不够强

    虽然比人脑单个神经元的计算速度快,但是人脑的并行计算能力远超现代计算机好几个量级。人脑可以同时有上亿个神经元被激活,参与计算。相比之下,机器的计算力有限,如果计算机目前的体系结构在未来保持不变,那机器在未来也没可能超越人类的计算能力。

    3. 知识储备不足

    人类的学习有个重要的来源就是人类共有的知识,这些知识给人类理解和学习问题提供基础,有时即便问题信息不足,人类依然可以利用这些知识来学习、梳理问题。而每个机器有自己学习到的模型,目前还不能将这些模型让其他机器共享。这也正是机器学习在很多领域很难达到人类水平的一个原因,比如:自然语言处理。

    4. 不能举一反三

    机器学习不能脱离要解决的实际问题,得出的模型也只是在这类实际问题中得到有限的泛化能力。这就限制了机器能像人类一样拥有举一反三的能力,只能一个个的学习。这就缺少了面对环境变化后的自主学习能力。

    综合来看,机器学习要想超越人类,需要解建模方法、决计算力、知识共享,举一反三这四个问题。目前还不能超越人类,只能在一些高度结构化而且频繁重复某些模式的领域才能适用。

    到此,我们宏观的了解了什么是人工智能,以及它的长处和短处,希望能对想要了解人工智能领域的人起到帮助。

    二、AI人工智能-目标检测模型一览

    目标检测是人工智能的一个重要应用,就是在图片中要将里面的物体识别出来,并标出物体的位置,一般需要经过两个步骤:

    1、分类,识别物体是什么

    2、定位,找出物体在哪里

    除了对单个物体进行检测,还要能支持对多个物体进行检测,如下图所示:

    这个问题并不是那么容易解决,由于物体的尺寸变化范围很大、摆放角度多变、姿态不定,而且物体有很多种类别,可以在图片中出现多种物体、出现在任意位置。因此,目标检测是一个比较复杂的问题。

    最直接的方法便是构建一个深度神经网络,将图像和标注位置作为样本输入,然后经过CNN网络,再通过一个分类头(Classification head)的全连接层识别是什么物体,通过一个回归头(Regression head)的全连接层回归计算位置,如下图所示:

    但“回归”不好做,计算量太大、收敛时间太长,应该想办法转为“分类”,这时容易想到套框的思路,即取不同大小的“框”,让框出现在不同的位置,计算出这个框的得分,然后取得分最高的那个框作为预测结果,如下图所示:

    根据上面比较出来的得分高低,选择了右下角的黑框作为目标位置的预测。

    但问题是:框要取多大才合适?太小,物体识别不完整;太大,识别结果多了很多其它信息。那怎么办?那就各种大小的框都取来计算吧。

    如下图所示(要识别一只熊),用各种大小的框在图片中进行反复截取,输入到CNN中识别计算得分,最终确定出目标类别和位置。

    这种方法效率很低,实在太耗时了。那有没有高效的目标检测方法呢?

    一、R-CNN 横空出世

    R-CNN(Region CNN,区域卷积神经网络)可以说是利用深度学习进行目标检测的开山之作,作者Ross Girshick多次在PASCAL VOC的目标检测竞赛中折桂,2010年更是带领团队获得了终身成就奖,如今就职于Facebook的人工智能实验室(FAIR)。

    R-CNN算法的流程如下

    1、输入图像

    2、每张图像生成1K~2K个候选区域

    3、对每个候选区域,使用深度网络提取特征(AlextNet、VGG等CNN都可以)

    4、将特征送入每一类的SVM 分类器,判别是否属于该类

    5、使用回归器精细修正候选框位置

    下面展开进行介绍

    1、生成候选区域

    使用Selective Search(选择性搜索)方法对一张图像生成约2000-3000个候选区域,基本思路如下:

    (1)使用一种过分割手段,将图像分割成小区域

    (2)查看现有小区域,合并可能性最高的两个区域,重复直到整张图像合并成一个区域位置。优先合并以下区域:

    3、类别判断

    对每一类目标,使用一个线性SVM二类分类器进行判别。输入为深度网络(如上图的AlexNet)输出的4096维特征,输出是否属于此类。

    4、位置精修

    目标检测的衡量标准是重叠面积:许多看似准确的检测结果,往往因为候选框不够准确,重叠面积很小,故需要一个位置精修步骤,对于每一个类,训练一个线性回归模型去判定这个框是否框得完美,如下图:

    R-CNN将深度学习引入检测领域后,一举将PASCAL VOC上的检测率从35.1%提升到53.7%。

    二、Fast R-CNN大幅提速

    继2014年的R-CNN推出之后,Ross Girshick在2015年推出Fast R-CNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。

    Fast R-CNN和R-CNN相比,训练时间从84小时减少到9.5小时,测试时间从47秒减少到0.32秒,并且在PASCAL VOC 2007上测试的准确率相差无几,约在66%-67%之间。

    Fast R-CNN主要解决R-CNN的以下问题:

    1、训练、测试时速度慢

    R-CNN的一张图像内候选框之间存在大量重叠,提取特征操作冗余。而Fast R-CNN将整张图像归一化后直接送入深度网络,紧接着送入从这幅图像上提取出的候选区域。这些候选区域的前几层特征不需要再重复计算。

    2、训练所需空间大

    R-CNN中独立的分类器和回归器需要大量特征作为训练样本。Fast R-CNN把类别判断和位置精调统一用深度网络实现,不再需要额外存储。

    下面进行详细介绍

    1、在特征提取阶段, 通过CNN(如AlexNet)中的conv、pooling、relu等操作都不需要固定大小尺寸的输入,因此,在原始图片上执行这些操作后,输入图片尺寸不同将会导致得到的feature map(特征图)尺寸也不同,这样就不能直接接到一个全连接层进行分类。

    在Fast R-CNN中,作者提出了一个叫做ROI Pooling的网络层,这个网络层可以把不同大小的输入映射到一个固定尺度的特征向量。ROI Pooling层将每个候选区域均匀分成M×N块,对每块进行max pooling。将特征图上大小不一的候选区域转变为大小统一的数据,送入下一层。这样虽然输入的图片尺寸不同,得到的feature map(特征图)尺寸也不同,但是可以加入这个神奇的ROI Pooling层,对每个region都提取一个固定维度的特征表示,就可再通过正常的softmax进行类型识别。

    2、在分类回归阶段, 在R-CNN中,先生成候选框,然后再通过CNN提取特征,之后再用SVM分类,最后再做回归得到具体位置(bbox regression)。而在Fast R-CNN中,作者巧妙的把最后的bbox regression也放进了神经网络内部,与区域分类合并成为了一个multi-task模型,如下图所示:

    实验表明,这两个任务能够共享卷积特征,并且相互促进。

    Fast R-CNN很重要的一个贡献是成功地让人们看到了Region Proposal+CNN(候选区域+卷积神经网络)这一框架实时检测的希望,原来多类检测真的可以在保证准确率的同时提升处理速度。

    三、Faster R-CNN更快更强

    继2014年推出R-CNN,2015年推出Fast R-CNN之后,目标检测界的领军人物Ross Girshick团队在2015年又推出一力作:Faster R-CNN,使简单网络目标检测速度达到17fps,在PASCAL VOC上准确率为59.9%,复杂网络达到5fps,准确率78.8%。

    在Fast R-CNN还存在着瓶颈问题:Selective Search(选择性搜索)。要找出所有的候选框,这个也非常耗时。那我们有没有一个更加高效的方法来求出这些候选框呢?

    在Faster R-CNN中加入一个提取边缘的神经网络,也就说找候选框的工作也交给神经网络来做了。这样,目标检测的四个基本步骤(候选区域生成,特征提取,分类,位置精修)终于被统一到一个深度网络框架之内。如下图所示:

    Faster R-CNN可以简单地看成是“区域生成网络+Fast R-CNN”的模型,用区域生成网络(Region Proposal Network,简称RPN)来代替Fast R-CNN中的Selective Search(选择性搜索)方法。

    如下图

    RPN如下图:

    RPN的工作步骤如下:

    Faster R-CNN设计了提取候选区域的网络RPN,代替了费时的Selective Search(选择性搜索),使得检测速度大幅提升,下表对比了R-CNN、Fast R-CNN、Faster R-CNN的检测速度:

    总结

    R-CNN、Fast R-CNN、Faster R-CNN一路走来,基于深度学习目标检测的流程变得越来越精简、精度越来越高、速度也越来越快。基于region proposal(候选区域)的R-CNN系列目标检测方法是目标检测技术领域中的最主要分支之一。

    为了更加精确地识别目标,实现在像素级场景中识别不同目标,利用“图像分割”技术定位每个目标的精确像素,如下图所示(精确分割出人、汽车、红绿灯等):

    Mask R-CNN便是这种“图像分割”的重要模型。

    Mask R-CNN的思路很简洁,既然Faster R-CNN目标检测的效果非常好,每个候选区域能输出种类标签和定位信息,那么就在Faster R-CNN的基础上再添加一个分支从而增加一个输出,即物体掩膜(object mask),也即由原来的两个任务(分类+回归)变为了三个任务(分类+回归+分割)。如下图所示,Mask R-CNN由两条分支组成:

    Mask R-CNN的这两个分支是并行的,因此训练简单,仅比Faster R-CNN多了一点计算开销。

    如下图所示,Mask R-CNN在Faster R-CNN中添加了一个全卷积网络的分支(图中白色部分),用于输出二进制mask,以说明给定像素是否是目标的一部分。所谓二进制mask,就是当像素属于目标的所有位置上时标识为1,其它位置标识为 0

    从上图可以看出,二进制mask是基于特征图输出的,而原始图像经过一系列的卷积、池化之后,尺寸大小已发生了多次变化,如果直接使用特征图输出的二进制mask来分割图像,那肯定是不准的。这时就需要进行了修正,也即使用RoIAlign替换RoIPooling

    如上图所示,原始图像尺寸大小是128x128,经过卷积网络之后的特征图变为尺寸大小变为 25x25。这时,如果想要圈出与原始图像中左上方15x15像素对应的区域,那么如何在特征图中选择相对应的像素呢?

    从上面两张图可以看出,原始图像中的每个像素对应于特征图的25/128像素,因此,要从原始图像中选择15x15像素,则只需在特征图中选择2.93x2.93像素(15x25/128=2.93),在RoIAlign中会使用双线性插值法准确得到2.93像素的内容,这样就能很大程度上,避免了错位问题。

    修改后的网络结构如下图所示(黑色部分为原来的Faster R-CNN,红色部分为Mask R-CNN修改的部分)

    从上图可以看出损失函数变为

    损失函数为分类误差+检测误差+分割误差,分类误差和检测(回归)误差是Faster R-CNN中的,分割误差为Mask R-CNN中新加的。

    对于每个MxM大小的ROI区域,mask分支有KxMxM维的输出(K是指类别数量)。对于每一个像素,都是用sigmod函数求二值交叉熵,也即对每个像素都进行逻辑回归,得到平均的二值交叉熵误差Lmask。通过引入预测K个输出的机制,允许每个类都生成独立的mask,以避免类间竞争,这样就能解耦mask和种类预测。

    对于每一个ROI区域,如果检测得到属于哪一个分类,就只使用该类的交叉熵误差进行计算,也即对于一个ROI区域中KxMxM的输出,真正有用的只是某个类别的MxM的输出。如下图所示:

    例如目前有3个分类:猫、狗、人,检测得到当前ROI属于“人”这一类,那么所使用的Lmask为“人”这一分支的mask。

    Mask R-CNN将这些二进制mask与来自Faster R-CNN的分类和边界框组合,便产生了惊人的图像精确分割,如下图所示:

    Mask R-CNN是一个小巧、灵活的通用对象实例分割框架,它不仅可以对图像中的目标进行检测,还可以对每一个目标输出一个高质量的分割结果。另外,Mask R-CNN还易于泛化到其他任务,比如人物关键点检测,如下图所示:

    从R-CNN、Fast R-CNN、Faster R-CNN到Mask R-CNN,每次进步不一定是跨越式的发展,这些进步实际上是直观的且渐进的改进之路,但是它们的总和却带来了非常显著的效果。

    最后,总结一下目标检测算法模型的发展历程,如下图所示:

    三、人工智能基于模型推理?

    举一个分析半导体故障的基于规则专家系统的例子,该系统根据以下症状诊断电路故障:器件上的污点(可能表明这个部件已经烧掉了)、类似设备的故障历史或者用电子仪表检查器件的内部特征。然而,把观察情况和诊断结果联系起来的规则失去了深入分析设备结构和功能的好处。更鲁棒的、可深入解释的方法是从这个电路物理结构的详细模型以及描述每个部件和部件间预期行为的公式着手。它把诊断建立在来自设备不同位置的数字读数上,使用这些数据和它的电路模型来判断确切的故障点。

    因为第一代专家系统依赖于从人类专家那里获得的启发性规则,所以具有很多局限性( Clancy 1985)。如果问题实例与系统的启发不匹配,那么即使通过理论分析可以找到解,这个解也是失败的。很多时候,专家系统把启发应用于不适当的情况,例如,较深入地理解问题可能预示着一个不同的过程。这便是基于模型方法所要解决的不足。如果一个基于知识的推理程序把分析直接建立在物理系统的特征和功能之上,那么就称其为基于模型系统。基于模型的推理程序在设计和使用中都创建一个软件来模拟(经常被称为“定性")要被理解的或修理对象的功能(当然,还有其他类型的基于模型系统,特别是第9章要介绍的基于逻辑的和随机的基于模型系统)。最早的基于模型推理程序出现在20世纪70年代中期,80年代后逐渐成熟(Davis and Ham-scher 1992)。值得注意的有趣的一点是,最早的一些研究是出于教学目的而创建各种物理设备(比如电子电路)的软件模型( deKleer 1976,Brown et al. 1982)。在这些早期的教学系统中,设备或电路的特征说明是以规则集(例如基尔霍夫定律和欧姆定律)反映的。这些教学系统既检验了学生关于设备和电路的知识,又向学生传授了他们可能忽视的知识。规则既表示了硬件的功能,同时又是向学生传输这种知识的媒介。

    基于模型推理程序从这些早期的教学系统(其任务既是对系统的功能建模又是教授这些功能)逐步转向查找故障的系统。在查找物理系统中的故障时,模型会产生一系列预期的行为,然后通过分析预期行为和观察到的行为之间的差异来发现故障。基于模型系统会告诉用户:期望行为是什么、观察情况与期望情况的差异以及系统是如何根据这些差异推断故障的。

    定性的基于模型推理包括:

    1)对设备中每个组件的描述。这些描述可以模拟组件的行为。

    2)对设备内部结构的描述。这些描述通常表示出各个部件以及它们的互连方式,应该具有模拟部件间相互作用的能力。所需内部结构知识的程度依赖于应用的深度和预期诊断的层次。

    3)诊断特定问题时需耍观察设备的实际工作情况,通常是输入和输出测量值。输人输出测量是最容易获得的,但在实际过程中,也可能还需要测量其他指标。

    四、什么是人工智能

    人工智能(Artificial Intelligence) ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

     人工智能, 英文单词 artilect ,来源于 雨果·德·加里斯 的著作 . “人工智能”一词最初是在1956 年Dartmouth学会上提出的。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。例如繁重的科学和工程计算本来是要人脑来承担的,现在计算机不但能完成这种计算, 而且能够比人脑做得更快、更准确,因之当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”, 可见复杂工作的定义是随着时代的发具有人工智能的机器人

    展和技术的进步而变化的, 人工智能这门科学的具体目标也自然随着时代的变化而发展。它一方面不断获得新的进展,一方面又转向更有意义、更加困难的目标。目前能够用来研究人工智能的主要物质手段以及能够实现人工智能技术的机器就是计算机, 人工智能的发展历史是和计算机科学技术的发展史联系在一起的。除了计算机科学以外, 人工智能还涉及信息论、控制论、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。人工智能学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面。  实际应用 机器视觉:指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,智能搜索,定理证明,博弈,自动程序设计,还有航天应用等。 学科范畴 人工智能是一门边沿学科,属于自然科学和社会科学的交叉。 涉及学科 哲学和认知科学,数学,神经生理学,心理学,计算机科学,信息论,控制论,不定性论,仿生学, 研究范畴 自然语言处理,知识表现,智能搜索,推理,规划,机器学习,知识获取,组合调度问题,感知问题,模式识别,逻辑程序设计,软计算,不精确和不确定的管理,人工生命,神经网络,复杂系统,遗传算法 人类思维方式 应用领域 智能控制,专家系统,机器人学,语言和图像理解,遗传编程 机器人工厂 安全问题  目前人工智能还在研究中,但有学者认为让计算机拥有智商是很危险的,它可能会反抗人类。这种隐患也在多部电影中发生过。

    人工智能的两种实现方法

    人工智能在计算机上实现时有2种不同的方式。一种是采用传统的编程技术,使系统呈现智能的效果,而不考虑所用方法是否与人或动物机体所用的方法相同。这种方法叫工程学方法(Engineering approach),它已在一些领域内作出了成果,如文字识别、电脑下棋等。另一种是模拟法(Modeling approach),它不仅要看效果,还要求实现方法也和人类或生物机体所用的方法相同或相类似。本书介绍的遗传算法(Generic Algorithm, 简称GA)和人工神经网络(Artificial Neural Network,简称ANN)均属后一类型。遗传算法模拟人类或生物的遗传-进化机制,人工神经网络则是模拟人类或动物大脑中神经细胞的活动方式。为了得到相同智能效果,两种方式通常都可使用。采用前一种方法,需要人工详细规定程序逻辑,如果游戏简单,还是方便的。如果游戏复杂,角色数量和活动空间增加,相应的逻辑就会很复杂(按指数式增长),人工编程就非常繁琐,容易出错。而一旦出错,就必须修改原程序,重新编译、调试,最后为用户提供一个新的版本或提供一个新补丁, 非常麻烦。采用后一种方法时,编程者要为每一角色设计一个智能系统(一个模块)来进行控制,这个智能系统(模块)开始什么也不懂,就像初生婴儿那样,但它能够学习,能渐渐地适应环境,应付各种复杂情况。这种系统开始也常犯错误,但它能吸取教训,下一次运行时就可能改正,至少不会永远错下去,用不到发布新版本或打补丁。利用这种方法来实现人工智能,要求编程者具有生物学的思考方法,入门难度大一点。但一旦入了门,就可得到广泛应用。由于这种方法编程时无须对角色的活动规律做详细规定,应用于复杂问题,通常会比前一种方法更省力。

    定义

    人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。 关于什么是“智能”,就问题多多了。这涉及到其它诸如意识(consciousness)、自我(self)、思维(mind)(包括无意识的思维(unconscious_mind)等等问题。人唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限,对构成人的智能的必要元素也了解有限,所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人的智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。 人工智能目前在计算机领域内,得到了愈加广泛的重视。并在机器人,经济政治决策,控制系统,仿真系统中得到应用。 著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。 人工智能(Artificial Intelligence,简称AI)是计算机学科的一个分支,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是二十一世纪(基因工程、纳米科学、人工智能)三大尖端技术之一。这是因为近三十年来它获得了迅速的发展,在很多学科领域都获得了广泛应用,并取得了丰硕的成果,人工智能已逐步成为一个独立的分支,无论在理论和实践上都已自成一个系统。 人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次,是它的一个应用分支。从思维观点看,人工智能不仅限于逻辑思维,要考虑形象思维、灵感思维才能促进人工智能的突破性的发展,数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具,数学不仅在标准逻辑、模糊数学等范围发挥作用,数学进入人工智能学科,它们将互相促进而更快地发展。

    编辑本段简史

    人工智能的传说可以追溯到古埃及,但随着1941年以来电子计算机的发展,技术已最终可以创造出机器智能,“人工智能”(Artificial Intelligence)一词最初是在1956年Dartmouth学会上提出的,从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展,在它还不长的历史中,人工智能的发展比预想的要慢,但一直在前进,从40年前出现到现在,已经出现了许多AI程序,并且它们也影响到了其它 技术的发展。

    计算机时代

    1941年的一项发明使信息存储和处理的各个方面都发生了革命.这项同时在美国和德国出现的 发明就是电子计算机.第一台计算机要占用几间装空调的大房间,对程序员来说是场恶梦:仅仅为运行一 个程序就要设置成千的线路.1949年改进后的能存储程序的计算机使得输入程序变得简单些,而且计算机 理论的发展产生了计算机科学,并最终促使了人工智能的出现.计算机这个用电子方式处理数据的发明, 为人工智能的可能实现提供了一种媒介.

    AI的开端

    虽然计算机为AI提供了必要的技术基础,但直到50年代早期人们才注意到人类智能与机器之间 的联系. Norbert Wiener是最早研究反馈理论的美国人之一.最熟悉的反馈控制的例子是自动调温器.它 将收集到的房间温度与希望的温度比较,并做出反应将加热器开大或关小,从而控制环境温度.这项对反馈 回路的研究重要性在于: Wiener从理论上指出,所有的智能活动都是反馈机制的结果.而反馈机制是有可 能用机器模拟的.这项发现对早期AI的发展影响很大. 1955年末,Newell和Simon做了一个名为"逻辑专家"(Logic Theorist)的程序.这个程序被许多人 认为是第一个AI程序.它将每个问题都表示成一个树形模型,然后选择最可能得到正确结论的那一枝来求解 问题."逻辑专家"对公众和AI研究领域产生的影响使它成为AI发展中一个重要的里程碑.1956年,被认为是 人工智能之父的John McCarthy组织了一次学会,将许多对机器智能感兴趣的专家学者聚集在一起进行了一 个月的讨论.他请他们到 Vermont参加 " Dartmouth人工智能夏季研究会".从那时起,这个领域被命名为 "人工智能".虽然 Dartmouth学会不是非常成功,但它确实集中了AI的创立者们,并为以后的AI研究奠定了基础. Dartmouth会议后的7年中,AI研究开始快速发展.虽然这个领域还没明确定义,会议中的一些思想 已被重新考虑和使用了. Carnegie Mellon大学和MIT开始组建AI研究中心.研究面临新的挑战: 下一步需 要建立能够更有效解决问题的系统,例如在"逻辑专家"中减少搜索;还有就是建立可以自我学习的系统. 1957年一个新程序,"通用解题机"(GPS)的第一个版本进行了测试.这个程序是由制作"逻辑专家" 的同一个组开发的.GPS扩展了Wiener的反馈原理,可以解决很多常识问题.两年以后,IBM成立了一个AI研 究组.Herbert Gelerneter花3年时间制作了一个解几何定理的程序. 当越来越多的程序涌现时,McCarthy正忙于一个AI史上的突破.1958年McCarthy宣布了他的新成 果: LISP语言. LISP到今天还在用."LISP"的意思是"表处理"(LISt Processing),它很快就为大多数AI开发者采纳. 1963年MIT从美国政府得到一笔220万美元的资助,用于研究机器辅助识别.这笔资助来自国防部 高级研究计划署(ARPA),已保证美国在技术进步上领先于苏联.这个计划吸引了来自全世界的计算机科学家, 加快了AI研究的发展步伐.

    大量的程序

    以后几年出现了大量程序.其中一个著名的叫"SHRDLU"."SHRDLU"是"微型世界"项目的一部分,包括 在微型世界(例如只有有限数量的几何形体)中的研究与编程.在MIT由Marvin Minsky领导的研究人员发现, 面对小规模的对象,计算机程序可以解决空间和逻辑问题.其它如在60年代末出现的"STUDENT"可相关书籍

    以解决代数 问题,"SIR"可以理解简单的英语句子.这些程序的结果对处理语言理解和逻辑有所帮助. 70年代另一个进展是专家系统.专家系统可以预测在一定条件下某种解的概率.由于当时计算机已 有巨大容量,专家系统有可能从数据中得出规律.专家系统的市场应用很广.十年间,专家系统被用于股市预 测,帮助医生诊断疾病,以及指示矿工确定矿藏位置等.这一切都因为专家系统存储规律和信息的能力而成为可能. 70年代许多新方法被用于AI开发,著名的如Minsky的构造理论.另外David Marr提出了机器视觉方 面的新理论,例如,如何通过一副图像的阴影,形状,颜色,边界和纹理等基本信息辨别图像.通过分析这些信 息,可以推断出图像可能是什么.同时期另一项成果是PROLOGE语言,于1972年提出. 80年代期间,AI前进更为迅速,并更多地进入商业领域.1986年,美国AI相关软硬件销售高达4.25亿 美元.专家系统因其效用尤受需求.象数字电气公司这样的公司用XCON专家系统为VAX大型机编程.杜邦,通用 汽车公司和波音公司也大量依赖专家系统.为满足计算机专家的需要,一些生产专家系统辅助制作软件的公 司,如Teknowledge和Intellicorp成立了。为了查找和改正现有专家系统中的错误,又有另外一些专家系统被设计出来.

    从实验室到日常生活

    人们开始感受到计算机和人工智能技术的影响.计算机技术不再只属于实验室中的一小群研究人员. 个人电脑和众多技术杂志使计算机技术展现在人们面前.有了象美国人工智能协会这样的基金会.因为AI开发 的需要,还出现了一阵研究人员进入私人公司的热潮。150多所像DEC(它雇了700多员工从事AI研究)这样的公司共花了10亿美元在内部的AI开发组上. 其它一些AI领域也在80年代进入市场.其中一项就是机器视觉. Minsky和Marr的成果现在用到了生产线上的相机和计算机中,进行质量控制.尽管还很简陋,这些系统已能够通过黑白区别分辨出物件形状的不同.到1985年美国有一百多个公司生产机器视觉系统,销售额共达8千万美元. 但80年代对AI工业来说也不全是好年景.86-87年对AI系统的需求下降,业界损失了近5亿美元.象 Teknowledge和Intellicorp两家共损失超过6百万美元,大约占利润的三分之一巨大的损失迫使许多研究领 导者削减经费.另一个另人失望的是国防部高级研究计划署支持的所谓"智能卡车".这个项目目的是研制一种能完成许多战地任务的机器人。由于项目缺陷和成功无望,Pentagon停止了项目的经费. 尽管经历了这些受挫的事件,AI仍在慢慢恢复发展.新的技术在日本被开发出来,如在美国首创的模糊逻辑,它可以从不确定的人工智能机器人

    条件作出决策;还有神经网络,被视为实现人工智能的可能途径.总之,80年代AI被引入了市场,并显示出实用价值.可以确信,它将是通向21世纪之匙. 人工智能技术接受检验 在"沙漠风暴"行动中军方的智能设备经受了战争的检验.人工智能技术被用于导弹系统和预警显示以 及其它先进武器.AI技术也进入了家庭.智能电脑的增加吸引了公众兴趣;一些面向苹果机和IBM兼容机的应用 软件例如语音和文字识别已可买到;使用模糊逻辑,AI技术简化了摄像设备.对人工智能相关技术更大的需求促 使新的进步不断出现.人工智能已经并且将继续不可避免地改变我们的生活.

    以上就是关于人工智能模型是什么相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。


    推荐阅读:

    人工智能行业年薪多少(人工智能行业年薪多少万)

    人工智能chatGPT股票(人工智能股票行情)

    人工智能在营销领域的应用(人工智能在营销领域的应用摘要)

    可卡品牌设计论文(40岁整牙的危害)

    兔的文化象征意义(兔的文化象征意义是什么)