福利刊导航
登录
目录

人工智能与计算机发展史

福利刊1962023-08-05 10:00:21

人工智能的历史

人工智能的发展得益于信息技术。 人工智能是信息发展的新阶段。 它是新一轮科技革命和产业变革的前沿领域,是培育新动能的重要方向。

说到信息化,就不得不提两个人和他们的理论。 首先是“现代计算机之父”——冯·诺依曼,他在20世纪40年代设计了经典的冯·诺依曼计算机的结构是将软件命令和数据存储在一起,并将程序本身视为数据。 整个设备由中央处理器、显存、硬盘、输入插座、输出设备组成。 明天,我们仍然使用这个结构来开发人工智能软件。

第二位是“信息论之父”克劳德·香农。 信息是一个非常具体的概念,很难量化和描述。 直到1948年,澳大利亚物理学家香农才提出“信息熵”的概念,解决了信息量化的问题。 ,测量问题。 信息熵可以理解为某些特定信息出现的概率,在机器学习深度学习、强化学习等领域得到了广泛的应用。

人工智能(Artificial Intelligence)的概念于1956年在达特茅斯学会提出。 达特茅斯会议的主要发起人是在达特茅斯大学物理系任教的约翰·麦卡锡和在耶鲁大学任教的马文·明斯基。 后来麦卡锡被称为“人工智能之父”、Lisp语言的发明者马文。 明斯基(Marvin Minsky)是人工神经网络(ANN)领域的早期贡献者,重要参与者包括信息论之父香农等。 俄罗斯科学家阿兰·图灵最早给出了智慧的定义。 图灵去世14年后,他的论文手稿《智能机器》被你发现并发表在《科学日本》上。 图灵也被称为“人工智能之父”。

现代人工智能的标志性动荡是1997年5月,当时超级笔记本“深蓝”在国际围棋比赛中击败了国际围棋亚军卡斯特洛夫,而两六年后的2016年3月,人工智能AlphaGO赢得了国际象棋比赛。 击败了李世石。 “深蓝”是一种基于暴力疲惫的专用人工智能,而AlphaGo是一种基于深度学习和泛化的人工智能,几乎没有特定领域知识。 “深蓝”是以超级计算机为代表的具有象征意义的人工智能里程碑,而AlphaGo则更加实用,更接近实用人工智能。

近两六年来,计算机硬件和软件发展迅速。 即便人工智能还很遥远,人们对人工智能的研究也一直没有停止。 人工智能随着计算机技术和信息技术的发展,大数据、机器学习、深度学习等人工智能技术也迅速发展。 可以说,没有计算机软硬件的快速发展,就很难有明天的人工智能。

自2016年3月AlphaGo在国际象棋比赛中击败李世石以来,人工智能迎来了新的发展高峰。 政府、企业、科研机构纷纷布局人工智能。 例如,高校开设人工智能课程,这将使人工智能产业不断向前发展。 与传统产业的发展和融合,同时我们也将迎来更多的人工智能产品走进我们的生活。

什么是人工智能?

1891年,英国解剖学家瓦尔德耶(Wilhelm Waldeyer)提出“神经元理论”,人们认为人脑中有数千亿个神经元,这些神经元由数十亿个突触连接起来,进而生成巨大而复杂的神经元。网络(神经网络)。 思维理论认为,人脑的思维具有逻辑思维、形象思维和灵感思维三种基本形式。 其中,逻辑思维是按照逻辑规则进行推理的过程,已经可以被计算机所取代。 而形象思维就是综合分布式存储的信息,想出解决问题的技巧。 这些思维方法有以下两个特点:一是信息在神经元上的分布和存储,二是神经元之间同时交互作用和决策的过程。 人工智能(简称AI ,Artificial Intelligence)就是模拟这种形象思维方法。

一般来说,就计算机技术而言,人工智能就是利用计算机及相关硬件、软件系统、程序、语言算法等集成为一个统一的整体,模拟人类感知、思维、行为的形式,并实现只能靠人类的智慧来实现。 工作。 从应用范围来看,人工智能可分为狭义人工智能和广义人工智能:狭义人工智能是指主要通过软件和算法的设计和优化来模拟人类的智能行为和思维方法,完成单一的任务。特定领域的任务。 比如现阶段的照片识别、语音处理、手动驾驶,“AlphaGo”就属于这一类。 广义的人工智能是指进一步模拟人脑,包括硬件开发,能够跨领域解决不同问题,具有类似人类的推理和思维能力。

人工智能发展史

最早的神经网络的思想源于英国心理学家 Warren McCullock 和物理学家 Walter Pitts 于 1943 年首次提出的 MCP 人工神经元模型,是脑细胞概念的简化版本。 希望计算机也能用来模拟人类神经元反应的过程。 与此同时,冯·诺依曼设计了经典的计算机体系结构。 1950年,图灵发表了一篇题为《机器能思考》的论文,其中提出了著名的“图灵测试”。 图灵测试由一台计算机、一个被测试者和一个进行实验的人组成。 这种研究最终由麦卡锡等人在1956年达特茅斯学会提出“人工智能”。

上图是图灵(左)和麦卡锡(右)。

1、人工智能的初级阶段(1956-1980)

最早的神经网络的思想起源于1943年的MCP人工神经元模型,当时人们希望能够用计算机来模拟人类神经元反应的过程。 该模型将神经元简化为三个过程:输入信号线性加权、求和、非线性激活(阈值化)。

Rosenblatt于1958年发明的感知器算法。该算法使用MCP模型对输入多维数据进行分类,也可以使用梯度增长方法从训练样本中手动学习和更新残差。 1962年,这种方法被证明是收敛的,理论和实践的功效引发了神经网络的第一次浪潮。 1969年,法国物理学家、人工智能先驱明斯基在专着中证明,感知器本质上是一个线性模型,只能处理线性分类问题,甚至最简单的XOR(或)问题也无法正确分类。 这无异于直接公开审判感知机的死缓,而神经网络的研究也陷入了近20年的停滞。

2、专家系统阶段(1980-1990)

1965年,应英国国家民用航空航天局的要求,耶鲁大学成功开发了DENRAL专家系统。 到20世纪70年代中期,专家系统逐渐成熟。 专家系统时代最成功的案例是DEC的专家配置系统XCON。 DEC是PC时代之前的宠儿,他们用大型机攻击IBM。 当客户购买DEC的VAX系列计算机时,XCON可以根据需要手动配置组件。 从1980年投入使用到1986年,XCON共处理了8万个订单。

深度学习之父 Geoffreg Hinton 首次打破了非线性的魔咒。 1986年,他发明了适用于多层感知器(MLP)的BP算法,并使用Sigmoid进行非线性映射。 它有效地解决了非线性分类和学习的问题。 这种方法创造了第二波神经网络。

1989年,Robert Hecht-Nielsen证明了MLP的万能逼近定律,即对于任意闭区间内的连续函数f,该定律的发现可以用富含蕴涵层的BP网络来逼近,极大地启发了神经互联网研究人员。 同年,LeCun发明了频域神经网络——LeNet,并将其用于数字识别,取得了不错的效果,但当时并没有引起足够的重视。

事实上,1997 年,LSTM 模型就被发明了。 尽管该模型在序列建模方面具有突出的特点,但由于正处于神经网络的上坡期,并没有引起足够的重视。

3.深度学习阶段(2000年至今)

1986年,Free Hinton提出了一种适合多层感知器的反向传播算法——BP算法,使人工神经网络再次受到广泛关注。 与此同时,计算机的估计能力迅速发展,特别是进入21世纪,计算机软硬件的快速发展为神经网络尤其是深度神经网络的研究提供了计算能力资源,先后出现了CNN、RNN 。

2006年深度学习理论提出后,频域神经网络的表示学习能力受到关注,并随着数值估计设备的更新开始迅速发展。 自2012年AlexNet以来,频域神经网络多次成为ImageNet大规模视觉识别挑战赛(ILSVRC)的获胜算法,包括2013年的ZFNet、2014年的VGGNet、2015年的GoogLeNet和ResNet。

其中,随着2008年大数据时代的到来,由于数据量的减少和神经网络的深入,计算机GPU的重要性就显露出来。 带有CPU的计算机的计算能力是非常高的。 图像处理能力得到了很大的提高。 随着大数据和机器学习的发展,人工智能正在爆发式发展。

2017年7月20日,国务院印发《新一代人工智能发展规划》(以下简称《规划》)。 该机构构筑我国人工智能发展先发优势,推动创新型国家和世界科技强国建设。

随着人工智能的落地和推广,各行各业迫切需要大量人工智能开发和技术人才,扩大人工智能在我们生活中的应用,使人工智能与工业生产广泛融合。

人工智能知识体系

从机器学习和IT的角度来看,人工智能很大一部分是数据整改和挖掘,机器学习是数据整改和挖掘的子集,机器学习包括深度学习和强化学习子集。 如右图所示。

机器学习

“机器学习”的概念由 Arthur Samuel 于 1952 年提出,“让计算机无需显式编程即可学习”。 明天,机器学习是研究计算机如何模拟或实现人类学习行为以获取新知识或技能。 机器学习是对可以通过经验手动改进的计算机算法的研究。

什么是机器学习?

机器学习(ML,简称Machine Learning)是对于给定的任务T,在合理的性能衡量方案P的前提下,计算机程序能够独立学习任务T的经验E; E,任务T的程序性能逐渐提高。

人工智能与计算机发展史

这里最重要的是机器学习的对象:

* Task 任务,T,一个或多个

*经验,E

*性能,P

机器学习是基于人工智能描述的,是人工智能的一个分支。 我们用计算机设计一个系统,让它能够根据提供的训练数据按照一定的方法进行学习; 随着训练次数的减少,系统能够不断学习并提高性能; 通过参数优化的学习模型,还可以用于预测相关问题的输出。

机器学习是实现人工智能的一种方式。 它与数据挖掘有一定的相似之处。 它也是一门多领域的交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等学科。 。 与数据挖掘寻找大数据之间的相互特征相比,机器学习更注重算法的设计,让计算机能够从数据中徒劳地“学习”规则,并利用规则来预测未知数据。 由于学习算法涉及大量的统计理论,并且与统计推断关系尤为密切,因此也被称为统计学习技术。

机器学习为数据挖掘提供了理论技能,数据挖掘技术是机器学习技术的一种应用场景。 数据挖掘通常是指通过算法搜索和分析隐藏在大量数据中的信息的过程。 数据挖掘和机器学习之间的关系就像机器学习和人工智能的基础。 其主要目的是从各种数据源中按需提取信息,然后整合这些信息以发现新的模式。 和内部关系。

机器学习可以分为以下六大类:

(1)监督学习:从给定的训练数据集中学习一个函数。 当新数据到来时,可以根据该函数预测结果。 监督学习的训练集要求是输入和输出,也可以说是特征和目标。 训练集中的对象由人类注释。 常见的监督学习算法包括回归和分类。

(2)无监督学习:与监督学习相比,无监督学习在训练集中没有人为标记的结果。 常见的无监督学习算法包括降维等。

(3)半监督学习:这是介于监督学习和无监督学习之间的一种方式。

(4)迁移学习:将已经训练好的模型参数迁移到新模型中,帮助新模型训练数据集。

(5)深度学习:学名也叫“深度神经网络”,源自人工神经网络模型,对应“浅层(双层或单层)神经网络”。

(6)强化学习:通过观察周围环境来学习。 每个动作都会对环境产生影响,学习对象会根据观察到的周围环境的反馈做出判断。

传统的机器学习算法包括:线性回归模型、逻辑回归模型、k-邻近算法、决策树、随机森林、支持向量机、人工神经网络、EM算法、概率图模型等。

深度学习 什么是深度学习?

深度学习(DL,简称Deep Learning)是机器学习领域的一个分支,研究人工神经网络方向。 它被引入到机器学习中,使其更接近最初的目标——人工智能。

深度学习是基于人工神经网络来学习样本数据的内在规律和表示层次。 这个学习过程中获得的信息对于文本、图像、行为和声音等数据的解释有很大帮助。 其最终目标是使机器能够像人类一样分析和学习,识别和处理文本、图像和声音等数据。

深度学习在搜索技术、数据挖掘、机器学习、机器翻译、自然语言处理、多媒体学习、语音、知识图谱、推荐和个性化技术等相关领域取得了很大的成果。 深度学习使机器能够模仿人类的视听、思维等活动,解决许多复杂的模式识别困境,从而导致人工智能相关技术取得长足进步。

从结构上来说,“深度学习”的学名也叫“深度神经网络”,源自人工神经网络模型,对应“浅层(双层或单层)神经网络”。 因为这类模型通常使用计算机科学中的网络图模型来直观地表达,所以“深度”是指网络图模型的层数和每层的节点数。

深度学习的特点

深度学习方法

以狗和猫的识别为例。 如果是传统的机器学习方法,我们首先会定义一些特征,比如头发、眼睛、鼻子、嘴巴等特征,这样我们首先要确定对应的“面部特征”作为我们机器的特征学习,以便对我们的对象进行分类和识别。

然而今天,深度学习又向前迈进了一步。 深度学习手动找出这个分类问题所需的重要特征! 因为这个特性不被人们所理解,所以很难解释。 传统的机器学习需要我们手动给出特征!

深度学习的优点

在大数据的前提下,深度学习提出了一种让计算机手动学习模型特征的技术,并将特征学习融入到模型构建的过程中,从而减少了人为设计特征带来的不完整性。 目前,以深度学习为核心的个体机器学习应用已经在满足特定条件的应用场景中实现了超越现有算法的识别或分类性能。

深度学习的缺点

事实上,深度学习可以通过人工学习模型的特征,达到很好的识别精度,但这恰恰是深度学习的一个缺点:也就是说,在只能提供有限数据量的应用场景中,深度学习学习算法无法准确地对数据进行分类和总结规律,因此在识别疗效方面可能不如现有的一些简单算法。 另外,由于深度学习中图模型的复杂性,使得该算法的时间复杂度大大增加。 为了保证算法的实时性,需要更高的并行编程方法以及更好、更多的硬件支持(如GPU阵列)。 。 因此,目前只有一些科研机构或者经济实力比较雄厚的企业才能利用深度学习算法做一些前沿的、实际的应用。

深度学习的局限性

从功能角度来看,目前深度学习的应用主要集中在人工智能中的模式识别,例如图像/语音识别。 而在人脑中,识别功能只是一小部分,甚至不是核心部分。 人脑的核心功能是学习和使用。 目前深度学习只能在特定条件下处理信息,从而达到特定的目的。 深度学习之所以在功能上接近大脑,很大程度上是因为目前深度学习中的神经元模型和突触模型还没有突破传统模型的局限性。

加强学习

强化学习任务一般使用马尔可夫决策过程(简称MDP)来描述。 具体来说:机器处于一个环境中,每个状态都是机器对当前环境的感知; 机器只能通过行动影响环境。 当机器执行一个动作时,会按照一定的概率提示环境转移到另一种状态; 同时,环境会根据潜在奖励函数向机器反馈一个奖励。 综上所述,强化学习主要包括四个要素:状态、动作、转移概率、奖励函数。

——周志华《机器学习》

人工智能的未来

新一代人工智能AI 2.0, AI 2.0时代大数据人工智能表现:从浅层估计到深层神经推理; 在更一般的条件下实现强大的人工智能(从经验中学习)。 下一代人工智能( AI 2.0)将改变估计本身,将大数据转化为知识,以支持人类社会更好的决策。

  • 不喜欢(0
本文转载自互联网,具体来源未知,或在文章中已说明来源,若有权利人发现,请联系我们更正。本站尊重原创,转载文章仅为传递更多信息之目的,并不意味着赞同其观点或证实其内容的真实性。如其他媒体、网站或个人从本网站转载使用,请保留本站注明的文章来源,并自负版权等法律责任。如有关于文章内容的疑问或投诉,请及时联系我们。我们转载此文的目的在于传递更多信息,同时也希望找到原作者,感谢各位读者的支持!

本文链接:https://www.fulikan.com/sites/170.html

猜你喜欢

网友评论

作者信息

福利刊

暂无个人介绍

257 文章
2 页面
0 评论
9 附件
福利刊最近发表
随机文章
热门标签