1.计算机体系结构, 计算机系统结构 有什么区别吗?

2.电脑里的CPU 起什么作用

3.CAM系统的主要作用是什么?

4.计算机系统主要有哪些特点?

5.计算机系统基础知识点归纳

6.计算机的结构体系是什么?

流水线pc,流水线电脑系统

性能指标

·主频

主频也叫时钟频率,单位是MHz,用来表示CPU的运算速度。CPU的主频=外频×倍频系数。很多人认为主频就决定着CPU的运行速度,这不仅是个片面的认识,而且对于服务器来讲,这个认识也出现了偏差。至今,没有一条确定的公式能够实现主频和实际的运算速度两者之间的量值关系,即使是两大处理器厂家Intel和AMD,在这点上也存在着很大的争议,我们从Intel的产品的发展趋势,可以看出Intel很注重加强自身主频的发展。像其他的处理器生产厂家,有人曾经拿过一块1G的全美达来做比较,它的运行效率相当于2G的Intel处理器。

所以,CPU的主频与CPU实际的运算能力是没有直接关系的,主频表示在CPU内数字脉冲信号震荡的速度。在Intel的处理器产品中,我们也可以看到这样的例子:1 GHz Itanium芯片能够表现得差不多跟2.66 GHz Xeon/Opteron一样快,或是1.5 GHz Itanium 2大约跟4 GHz Xeon/Opteron一样快。CPU的运算速度还要看CPU的流水线的各方面的性能指标。

当然,主频和实际的运算速度是有关的,只能说主频是CPU性能表现的一个方面,而不能代表CPU的整体性能。

·外频

外频是CPU的基准频率,单位也是MHz。CPU的外频决定着整块主板的运行速度。说白了,在台式机中,我们所说的超频,都是超CPU的外频(当然一般情况下,CPU的倍频都是被锁住的)相信这点是很好理解的。但对于服务器CPU来讲,超频是绝对不允许的。前面说到CPU决定着主板的运行速度,两者是同步运行的,如果把服务器CPU超频了,改变了外频,会产生异步运行,(台式机很多主板都支持异步运行)这样会造成整个服务器系统的不稳定。

目前的绝大部分电脑系统中外频也是内存与主板之间的同步运行的速度,在这种方式下,可以理解为CPU的外频直接与内存相连通,实现两者间的同步运行状态。外频与前端总线(FSB)频率很容易被混为一谈,下面我们在前端总线的介绍中谈谈两者的区别。

·前端总线(FSB)频率

前端总线(FSB)频率(即总线频率)是直接影响CPU与内存直接数据交换速度。有一条公式可以计算,即数据带宽=(总线频率×数据位宽)/8,数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率。比方,现在的支持64位的至强Nocona,前端总线是800MHz,按照公式,它的数据传输最大带宽是6.4GB/秒。

外频与前端总线(FSB)频率的区别:前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一千万次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit÷8bit/Byte=800MB/s。

其实现在“HyperTransport”构架的出现,让这种实际意义上的前端总线(FSB)频率发生了变化。之前我们知道IA-32架构必须有三大重要的构件:内存控制器Hub (MCH) ,I/O控制器Hub和PCI Hub,像Intel很典型的芯片组 Intel 7501、Intel7505芯片组,为双至强处理器量身定做的,它们所包含的MCH为CPU提供了频率为533MHz的前端总线,配合DDR内存,前端总线带宽可达到4.3GB/秒。但随着处理器性能不断提高同时给系统架构带来了很多问题。而“HyperTransport”构架不但解决了问题,而且更有效地提高了总线带宽,比方AMD Opteron处理器,灵活的HyperTransport I/O总线体系结构让它整合了内存控制器,使处理器不通过系统总线传给芯片组而直接和内存交换数据。这样的话,前端总线(FSB)频率在AMD Opteron处理器就不知道从何谈起了。

·CPU的位和字长

位:在数字电路和电脑技术中采用二进制,代码只有“0”和“1”,其中无论是 “0”或是“1”在CPU中都是 一“位”。

字长:电脑技术中对CPU在单位时间内(同一时间)能一次处理的二进制数的位数叫字长。所以能处理字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。字节和字长的区别:由于常用的英文字符用8位二进制就可以表示,所以通常就将8位称为一个字节。字长的长度是不固定的,对于不同的CPU、字长的长度也不一样。8位的CPU一次只能处理一个字节,而32位的CPU一次就能处理4个字节,同理字长为64位的CPU一次可以处理8个字节。

·倍频系数

倍频系数是指CPU主频与外频之间的相对比例关系。在相同的外频下,倍频越高CPU的频率也越高。但实际上,在相同外频的前提下,高倍频的CPU本身意义并不大。这是因为CPU与系统之间数据传输速度是有限的,一味追求高倍频而得到高主频的CPU就会出现明显的“瓶颈”效应—CPU从系统中得到数据的极限速度不能够满足CPU运算的速度。一般除了工程样版的Intel的CPU都是锁了倍频的,而AMD之前都没有锁。

·缓存

缓存大小也是CPU的重要指标之一,而且缓存的结构和大小对CPU速度的影响非常大,CPU内缓存的运行频率极高,一般是和处理器同频运作,工作效率远远大于系统内存和硬盘。实际工作时,CPU往往需要重复读取同样的数据块,而缓存容量的增大,可以大幅度提升CPU内部读取数据的命中率,而不用再到内存或者硬盘上寻找,以此提高系统性能。但是由于CPU芯片面积和成本的因素来考虑,缓存都很小。

L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存。内置的L1高速缓存的容量和结构对CPU的性能影响较大,不过高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大。一般服务器CPU的L1缓存的容量通常在32—256KB。

L2 Cache(二级缓存)是CPU的第二层高速缓存,分内部和外部两种芯片。内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。L2高速缓存容量也会影响CPU的性能,原则是越大越好,现在家庭用CPU容量通常有256KB-2MB,而服务器和工作站上用CPU的L2高速缓存可以有256KB-3MB,有的4MB也不为过。

L3 Cache(三级缓存),分为两种,早期的是外置,现在的都是内置的。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。降低内存延迟和提升大数据量计算能力对游戏都很有帮助。而在服务器领域增加L3缓存在性能方面仍然有显著的提升。比方具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统可以处理更多的数据请求。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。 

其实最早的L3缓存被应用在AMD发布的K6-III处理器上,当时的L3缓存受限于制造工艺,并没有被集成进芯片内部,而是集成在主板上。在只能够和系统总线频率同步的L3缓存同主内存其实差不了多少。后来使用L3缓存的是英特尔为服务器市场所推出的Itanium处理器。接着就是P4EE和至强MP。Intel还打算推出一款9MB L3缓存的Itanium2处理器,和以后24MB L3缓存的双核心Itanium2处理器。

但基本上L3缓存对处理器的性能提高显得不是很重要,比方配备1MB L3缓存的Xeon MP处理器却仍然不是Opteron的对手,由此可见前端总线的增加,要比缓存增加带来更有效的性能提升。

计算机体系结构, 计算机系统结构 有什么区别吗?

流水线处理是高速设计中的一个常用设计手段。如果某个设计的处理流程分为若干步骤,而且整个数据处理是?“?单流向?”?的,即没有反馈或者迭代运算,前一个步骤的输出是下一个步骤的输入,则可以考虑采用流水线设计方法来提高系统的工作频率。

流水线设计的结构示意图如上图?所示。其基本结构为:将适当划分的?n个操作步骤单流向串联起来。流水线操作的最大特点和要求是,数据流在各个步骤的处理从时间上看是连续的,如果将每个操作步骤简化假设为通过一个?D触发器?(?就是用寄存器打一个节拍?)?,那么流水线操作就类似一个移位寄存器组,数据流依次流经?D触发器,完成每个步骤的操作。流水线设计时序如下图所示。

流水线设计的一个关键在于整个设计时序的合理安排,要求每个操作步骤的划分合理。如果前级操作时间恰好等于后级的操作时间,设计最为简单,前级的输出直接汇入后级的输入即可;如果前级操作时间大于后级的操作时间,则需要对前级的输出数据适当缓存才能汇入到后级输入端;如果前级操作时间恰好小于后级的操作时间,则必须通过复制逻辑,将数据流分流,或者在前级对数据采用存储、后处理方式,否则会造成后级数据溢出。

电脑里的CPU 起什么作用

计算机体系结构就是计算机系统结构,一个意思

computer architecture理解为计算机系统结构也就是计算机体系结构

我用的国内的教材是清华大学出版的张晨曦等编写的计算机系统结构教程

组成原理讲的是计算机组成的各个部件,分别都讲了。体系结构不是每个都讲。体系结构里面涉及到了一些组成原理中的概念,比如流水线等,但组成原理里只是稍微讲了一些相关概念,而体系结构里的流水线则着重讲流水线指令系统方面的设计,如怎么样保证它能正常流水,流得没有阻碍等等。两本书里都有存储器啊输入输出系统这些基本知识。另外,组成原理里详细讲了cpu的,但是系统结构里就没有怎么讲。就是说知识点有交叉的,侧重点不一样

CAM系统的主要作用是什么?

一、 指令系统

要讲CPU,就必须先讲一下指令系统。指令系统指的是一个CPU所能够处理的全部指

令的集合,是一个CPU的根本属性。比如我们现在所用的CPU都是采用x86指令集的,他们都是同一类型的CPU,不管是PIII、Athlon或Joshua。我们也知道,世界上还有比PIII和Athlon快得多的CPU,比如Alpha,但它们不是用x86指令集,不能使用数量庞大的基于x86指令集的程序,如Windows98。之所以说指令系统是一个CPU的根本属性,是因为指令系统决定了一个CPU能够运行什么样的程序。

所有采用高级语言编出的程序,都需要翻译(编译或解释)成为机器语言后才能运行,这些机器语言中所包含的就是一条条的指令。

1、 指令的格式

一条指令一般包括两个部分:操作码和地址码。操作码其实就是指令序列号,用来告诉CPU需要执行的是那一条指令。地址码则复杂一些,主要包括源操作数地址、目的地址和下一条指令的地址。在某些指令中,地址码可以部分或全部省略,比如一条空指令就只有操作码而没有地址码。

举个例子吧,某个指令系统的指令长度为32位,操作码长度为8位,地址长度也为8位,且第一条指令是加,第二条指令是减。当它收到一个“00000010000001000000000100000110”的指令时,先取出它的前8位操作码,即00000010,分析得出这是一个减法操作,有3个地址,分别是两个源操作数地址和一个目的地址。于是,CPU就到内存地址00000100处取出被减数,到00000001处取出减数,送到ALU中进行减法运算,然后把结果送到00000110处。

这只是一个相当简单化的例子,实际情况要复杂的多。

2、 指令的分类与寻址方式

一般说来,现在的指令系统有以下几种类型的指令:

(1)算术逻辑运算指令

算术逻辑运算指令包括加减乘除等算术运算指令,以及与或非异或等逻辑运算指令。现在的指令系统还加入了一些十进制运算指令以及字符串运算指令等。

(2)浮点运算指令

用于对浮点数进行运算。浮点运算要大大复杂于整数运算,所以CPU中一般还会有专门负责浮点运算的浮点运算单元。现在的浮点指令中一般还加入了向量指令,用于直接对矩阵进行运算,对于现在的多媒体和3D处理很有用。

(3)位操作指令

学过C的人应该都知道C语言中有一组位操作语句,相对应的,指令系统中也有一组位操作指令,如左移一位右移一位等。对于计算机内部以二进制不码表示的数据来说,这种操作是非常简单快捷的。

(4)其他指令

上面三种都是运算型指令,除此之外还有许多非运算的其他指令。这些指令包括:数据传送指令、堆栈操作指令、转移类指令、输入输出指令和一些比较特殊的指令,如特权指令、多处理器控制指令和等待、停机、空操作等指令。

对于指令中的地址码,也会有许多不同的寻址(编址)方式,主要有直接寻址,间接寻址,寄存器寻址,基址寻址,变址寻址等,某些复杂的指令系统会有几十种甚至更多的寻址方式。

3、 CISC与RISC

CISC,Complex Instruction Set Computer,复杂指令系统计算机。RISC,Reduced Instruction Set Computer,精简指令系统计算机。虽然这两个名词是针对计算机的,但下文我们仍然只对指令集进行研究。

(1)CISC的产生、发展和现状

一开始,计算机的指令系统只有很少一些基本指令,而其他的复杂指令全靠软件编译时通过简单指令的组合来实现。举个最简单的例子,一个a乘以b的操作就可以转换为a个b相加来做,这样就用不着乘法指令了。当然,最早的指令系统就已经有乘法指令了,这是为什么呢?因为用硬件实现乘法比加法组合来得快得多。

由于那时的计算机部件相当昂贵,而且速度很慢,为了提高速度,越来越多的复杂指令被加入了指令系统中。但是,很快又有一个问题:一个指令系统的指令数是受指令操作码的位数所限制的,如果操作码为8位,那么指令数最多为256条(2的8次方)。

那么怎么办呢?指令的宽度是很难增加的,聪明的设计师们又想出了一种方案:操作码扩展。前面说过,操作码的后面跟的是地址码,而有些指令是用不着地址码或只用少量的地址码的。那么,就可以把操作码扩展到这些位置。

举个简单的例子,如果一个指令系统的操作码为2位,那么可以有00、01、10、11四条不同的指令。现在把11作为保留,把操作码扩展到4位,那么就可以有00、01、10、1100、1101、1110、1111七条指令。其中1100、1101、1110、1111这四条指令的地址码必须少两位。

然后,为了达到操作码扩展的先决条件:减少地址码,设计师们又动足了脑筋,发明了各种各样的寻址方式,如基址寻址、相对寻址等,用以最大限度的压缩地址码长度,为操作码留出空间。

就这样,慢慢地,CISC指令系统就形成了,大量的复杂指令、可变的指令长度、多种的寻址方式是CISC的特点,也是CISC的缺点:因为这些都大大增加了解码的难度,而在现在的高速硬件发展下,复杂指令所带来的速度提升早已不及在解码上浪费点的时间。除了个人PC市场还在用x86指令集外,服务器以及更大的系统都早已不用CISC了。x86仍然存在的唯一理由就是为了兼容大量的x86平台上的软件。

(2)RISC的产生、发展和现状

1975年,IBM的设计师John Cocke研究了当时的IBM370CISC系统,发现其中占总指令数仅20%的简单指令却在程序调用中占了80%,而占指令数80%的复杂指令却只有20%的机会用到。由此,他提出了RISC的概念。

事实证明,RISC是成功的。80年代末,各公司的RISC CPU如雨后春笋般大量出现,占据了大量的市场。到了90年代,x86的CPU如pentium和k5也开始使用先进的RISC核心。

RISC的最大特点是指令长度固定,指令格式种类少,寻址方式种类少,大多数是简单指令且都能在一个时钟周期内完成,易于设计超标量与流水线,寄存器数量多,大量操作在寄存器之间进行。由于下文所讲的CPU核心大部分是讲RISC核心,所以这里就不多介绍了,对于RISC核心的设计下面会详细谈到。

RISC目前正如日中天,Intel的Itanium也将最终抛弃x86而转向RISC结构。

二、CPU内核结构

好吧,下面来看看CPU。CPU内核主要分为两部分:运算器和控制器。

(一) 运算器

1、 算术逻辑运算单元ALU(Arithmetic and Logic Unit)

ALU主要完成对二进制数据的定点算术运算(加减乘除)、逻辑运算(与或非异或)以及移位操作。在某些CPU中还有专门用于处理移位操作的移位器。

通常ALU由两个输入端和一个输出端。整数单元有时也称为IEU(Integer Execution Unit)。我们通常所说的“CPU是XX位的”就是指ALU所能处理的数据的位数。

2、 浮点运算单元FPU(Floating Point Unit)

FPU主要负责浮点运算和高精度整数运算。有些FPU还具有向量运算的功能,另外一些则有专门的向量处理单元。

3、通用寄存器组

通用寄存器组是一组最快的存储器,用来保存参加运算的操作数和中间结果。

在通用寄存器的设计上,RISC与CISC有着很大的不同。CISC的寄存器通常很少,主要是受了当时硬件成本所限。比如x86指令集只有8个通用寄存器。所以,CISC的CPU执行是大多数时间是在访问存储器中的数据,而不是寄存器中的。这就拖慢了整个系统的速度。而RISC系统往往具有非常多的通用寄存器,并采用了重叠寄存器窗口和寄存器堆等技术使寄存器资源得到充分的利用。

对于x86指令集只支持8个通用寄存器的缺点,Intel和AMD的最新CPU都采用了一种叫做“寄存器重命名”的技术,这种技术使x86CPU的寄存器可以突破8个的限制,达到32个甚至更多。不过,相对于RISC来说,这种技术的寄存器操作要多出一个时钟周期,用来对寄存器进行重命名。

4、 专用寄存器

专用寄存器通常是一些状态寄存器,不能通过程序改变,由CPU自己控制,表明某种状态。

(二) 控制器

运算器只能完成运算,而控制器用于控制着整个CPU的工作。

1、 指令控制器

指令控制器是控制器中相当重要的部分,它要完成取指令、分析指令等操作,然后交给执行单元(ALU或FPU)来执行,同时还要形成下一条指令的地址。

2、 时序控制器

时序控制器的作用是为每条指令按时间顺序提供控制信号。时序控制器包括时钟发生器和倍频定义单元,其中时钟发生器由石英晶体振荡器发出非常稳定的脉冲信号,就是CPU的主频;而倍频定义单元则定义了CPU主频是存储器频率(总线频率)的几倍。

3、 总线控制器

总线控制器主要用于控制CPU的内外部总线,包括地址总线、数据总线、控制总线等等。

4、中断控制器

中断控制器用于控制各种各样的中断请求,并根据优先级的高低对中断请求进行排队,逐个交给CPU处理。

(三) CPU核心的设计

CPU的性能是由什么决定的呢?单纯的一个ALU速度在一个CPU中并不起决定性作用,因为ALU的速度都差不多。而一个CPU的性能表现的决定性因素就在于CPU内核的设计。

1、超标量(Superscalar)

既然无法大幅提高ALU的速度,有什么替代的方法呢?并行处理的方法又一次产生了强大的作用。所谓的超标量CPU,就是只集成了多个ALU、多个FPU、多个译码器和多条流水线的CPU,以并行处理的方式来提高性能。

超标量技术应该是很容易理解的,不过有一点需要注意,就是不要去管“超标量”之前的那个数字,比如“9路超标量”,不同的厂商对于这个数字有着不同的定义,更多的这只是一种商业上的宣传手段。

2、流水线(Pipeline)

流水线是现代RISC核心的一个重要设计,它极大地提高了性能。

对于一条具体的指令执行过程,通常可以分为五个部分:取指令,指令译码,取操作数,运算(ALU),写结果。其中前三步一般由指令控制器完成,后两步则由运算器完成。按照传统的方式,所有指令顺序执行,那么先是指令控制器工作,完成第一条指令的前三步,然后运算器工作,完成后两步,在指令控制器工作,完成第二条指令的前三步,在是运算器,完成第二条指令的后两部……很明显,当指令控制器工作是运算器基本上在休息,而当运算器在工作时指令控制器却在休息,造成了相当大的资源浪费。解决方法很容易想到,当指令控制器完成了第一条指令的前三步后,直接开始第二条指令的操作,运算单元也是。这样就形成了流水线系统,这是一条2级流水线。

如果是一个超标量系统,假设有三个指令控制单元和两个运算单元,那么就可以在完成了第一条指令的取址工作后直接开始第二条指令的取址,这时第一条指令在进行译码,然后第三条指令取址,第二条指令译码,第一条指令取操作数……这样就是一个5级流水线。很显然,5级流水线的平均理论速度是不用流水线的4倍。

流水线系统最大限度地利用了CPU资源,使每个部件在每个时钟周期都工作,大大提高了效率。但是,流水线有两个非常大的问题:相关和转移。

在一个流水线系统中,如果第二条指令需要用到第一条指令的结果,这种情况叫做相关。以上面哪个5级流水线为例,当第二条指令需要取操作数时,第一条指令的运算还没有完成,如果这时第二条指令就去取操作数,就会得到错误的结果。所以,这时整条流水线不得不停顿下来,等待第一条指令的完成。这是很讨厌的问题,特别是对于比较长的流水线,比如20级,这种停顿通常要损失十几个时钟周期。目前解决这个问题的方法是乱序执行。乱序执行的原理是在两条相关指令中插入不相关的指令,使整条流水线顺畅。比如上面的例子中,开始执行第一条指令后直接开始执行第三条指令(假设第三条指令不相关),然后才开始执行第二条指令,这样当第二条指令需要取操作数时第一条指令刚好完成,而且第三条指令也快要完成了,整条流水线不会停顿。当然,流水线的阻塞现象还是不能完全避免的,尤其是当相关指令非常多的时候。

另一个大问题是条件转移。在上面的例子中,如果第一条指令是一个条件转移指令,那么系统就会不清楚下面应该执行那一条指令?这时就必须等第一条指令的判断结果出来才能执行第二条指令。条件转移所造成的流水线停顿甚至比相关还要严重的多。所以,现在采用分支预测技术来处理转移问题。虽然我们的程序中充满着分支,而且哪一条分支都是有可能的,但大多数情况下总是选择某一分支。比如一个循环的末尾是一个分支,除了最后一次我们需要跳出循环外,其他的时候我们总是选择继续循环这条分支。根据这些原理,分支预测技术可以在没有得到结果之前预测下一条指令是什么,并执行它。现在的分支预测技术能够达到90%以上的正确率,但是,一旦预测错误,CPU仍然不得不清理整条流水线并回到分支点。这将损失大量的时钟周期。所以,进一步提高分支预测的准确率也是正在研究的一个课题。

越是长的流水线,相关和转移两大问题也越严重,所以,流水线并不是越长越好,超标量也不是越多越好,找到一个速度与效率的平衡点才是最重要的。

三、CPU的外核

1、解码器(Decode Unit)

这是x86CPU才有的东西,它的作用是把长度不定的x86指令转换为长度固定的类似于RISC的指令,并交给RISC内核。解码分为硬件解码和微解码,对于简单的x86指令只要硬件解码即可,速度较快,而遇到复杂的x86指令则需要进行微解码,并把它分成若干条简单指令,速度较慢且很复杂。好在这些复杂指令很少会用到。

Athlon也好,PIII也好,老式的CISC的x86指令集严重制约了他们的性能表现。

2、一级缓存和二级缓存(Cache)

以及缓存和二级缓存是为了缓解较快的CPU与较慢的存储器之间的矛盾而产生的,以及缓存通常集成在CPU内核,而二级缓存则是以OnDie或OnBoard的方式以较快于存储器的速度运行。对于一些大数据交换量的工作,CPU的Cache显得尤为重要。

好了,看到了吧,CPU其实也就这样,并不是很神秘。

计算机系统主要有哪些特点?

CAM系统的主要作用,就是设计数据的转换、计算机控制数控机床、计算机辅助制造过程计划、加工时间安排、工具设计与生产流程、模具的自动制造、材料的自动处理,以及自动装配和对机器的管理等等。

20世纪80年代中期,人们又开始把CAD、CAM等系统连成一种自动化系统,叫做计算机集成制造系统,简称CIMS。它包括管理决策、计算机辅助设计和计算机辅助制造三个部分。它是飞机制造过程最优化的产品大系统,收效很好。

美国的波音公司过去设计新飞机往往要三至五年的时间,采用CIMS这种综合性高技术,只需要几个月,甚至几个星期,就可以设计并制造出一架新型飞机。

汽车制造

汽车诞生以来,使陆上交通工具有了很大的改观,也使人们的生活步人一个新的时代。

世界上第一辆以蒸汽机为动力的木制三轮车是法国的丘约制造的。世界上第一辆内燃机汽车,是英国人勃朗制成的,它有两个汽缸。

直到1886年,德国人奔驰才制造出第一辆实用汽车,它是以汽油机为动力的自动车。所以,德国人自豪地说:“这才是第一辆汽车!”现在版轿车是德国的高级轿车,也是世界有名的高级轿车。“奔驰”。

20世纪80年代,计算机被广泛应用。发达国家推出了“三A”革命,即“工厂自动化”、“办公自动化”、“家庭自动化”。汽车制造业也率先自动化了。

所谓“工厂自动化”,就是指从一条生产线的自动化到设计、生产和管理过程的全面自动化。

工厂自动化的高级阶段就是无人工厂,即工厂从设计到生产全部自动化。这种自动化就是用计算机或机器人控制生产。

20世纪50年代初,人们就开始探索和使用自动化生产流水线,到20世纪70年代以后,逐渐使用计算机来控制数控机床。而后,随着计算机的发展,工厂自动化程度更加提高了。

CAD(计算机辅助设计)和CAM(计算机的辅助制造)在工厂的应用以及20世纪80年代合成的CIMS(计算机集成制造系统),使工厂高度综合自动化。发达国家汽车制造业的生产过程,基本上全面实现了自动化。

当你走进汽车制造厂,可以看到在汽车装配线上,焊接机器人在准确地焊接汽车上的各种零部件。监控机器人在检查和纠正生产线上整车或零部件的安放位置。

当机器人发现差错时,会通知管理工程师,甚至能指出毛病的所在。

有的汽车制造厂,用机器人控制整个装配线。

机器人会记录生产过程中仓库库存零部件的使用情况,在零部件接近用完时,会通知管理人员,甚至可以通过计算机系统把信息通知供货单位。

如果在装配线尽头上放一个机器人,它会监控整车生产的情况并把信息及时通知管理人员或销售人员,或者把信息传给世界各地零销商。

工厂还可以根据零售商的需要,把汽车的类型告诉机器人领班,领班去启动装配线上的不同机器人,按时生产合格的汽车,并交付零售商。

计算机系统基础知识点归纳

计算机具有以下特点:

快速的运算能力

电子计算机的工作基于电子脉冲电路原理,由电子线路构成其各个功能部件,其中电场的传播扮演主要角色。我们知道电磁场传播的速度是很快的,现在高性能计算机每秒能进行几百亿次以上的加法运算。如果一个人在一秒钟内能作一次运算,那么一般的电子计算机一小时的工作量,一个人得做100多年。很多场合下,运算速度起决定作用。例如,计算机控制导航,要求“运算速度比飞机飞的还快”;气象预报要分析大量资料,如用手工计算需要十天半月,失去了预报的意义。而用计算机,几分钟就能算出一个地区内数天的气象预报。

足够高的计算精度

电子计算机的计算精度在理论上不受限制,一般的计算机均能达到15位有效数字,通过一定的技术手段,可以实现任何精度要求。历史上有个著名数学家挈依列,曾经为计算圆周率π,整整花了15年时间,才算到第707位。现在将这件事交给计算机做,几个小时内就可计算到10万位。

超强的记忆能力

计算机中有许多存储单元,用以记忆信息。内部记忆能力,是电子计算机和其他计算工具的一个重要区别。由于具有内部记忆信息的能力,在运算过程中就可以不必每次都从外部去取数据,而只需事先将数据输入到内部的存储单元中,运算时即可直接从存储单元中获得数据,从而大大提高了运算速度。计算机存储器的容量可以做得很大,而且它记忆力特别强。

复杂的逻辑判断能力

人是有思维能力的。思维能力本质上是一种逻辑判断能力,也可以说是因果关系分析能力。借助于逻辑运算,可以让计算机做出逻辑判断,分析命题是否成立,并可根据命题成立与否做出相应的对策。例如,数学中有个“四色问题”,说是不论多么复杂的地图,使相邻区域颜色不同,最多只需四种颜色就够了。100多年来不少数学家一直想去证明它或者推翻它,却一直没有结果,成了数学中著名的难题。1976年两位美国数学家终于使用计算机进行了非常复杂的逻辑推理验证了这个著名的猜想。

按程序自动工作的能力

一般的机器是由人控制的,人给机器一个指令,机器就完,成一个操作。计算机的操作也是受人控制的,但由于计算机具有内部存储能力,可以将指令事先输入到计算机存储起来,在计算机开始工作以后,从存储单元中依次去取指令,用来控制计算机的操作,从而使人们可以不必干预计算机的工作,实现操作的自动化。这种工作方式称为程序控制方式。

电子计算机一般分为处理模拟信号的模拟计算机和处理数字信号的数字计算机两大类,目前使用的大都为数字计算机。模拟式电子计算机内部表示和处理数据所使用的电信号,是模拟自然界的实际信号。如它可以用电信号模拟随时间连续变化的温度、湿度等。这种模拟自然界实际信号的电信号称为“模拟电信号”,其主要特点是“随时间连续变化”。数字式电子计算机内部处理的是一种称为符号信号或数字信号的电信号,这种信号的主要特点是“离散”,即在相邻的两个符号之间不可能有第三个符号。我们通常所说的计算机指的是数字式电子计算机。

计算机的应用领域已渗透到社会的各行各业,正在改变着传统的工作、学习和生活方式,推动着社会的发展。计算机的主要应用领域如下:

1.科学计算(或数值计算)

科学计算是指利用计算机来完成科学研究和工程技术中提出的数学问题的计算。在现代科学技术工作中,科学计算问题是大量的和复杂的。利用计算机的高速计算、大存储容量和连续运算的能力,可以实现人工无法解决的各种科学计算问题。

例如,建筑设计中为了确定构件尺寸,通过弹性力学导出一系列复杂方程,长期以来由于计算方法跟不上而一直无法求解。而计算机不但能求解这类方程,并且引起弹性理论上的一次突破,出现了有限单元法。

2.数据处理(或信息处理)

数据处理是指对各种数据进行收集、存储、整理、分类、统计、加工、利用、传播等一系列活动的统称。据统计,80%以上的计算机主要用于数据处理,这类工作量大面宽,决定了计算机应用的主导方向。

数据处理从简单到复杂已经历了三个发展阶段,它们是:

①电子数据处理(Electronic Data Processing,简称EDP),它是以文件系统为手段,实现一个部门内的单项管理。

②管理信息系统(Management Information System,简称MIS),它是以数据库技术为工具,实现一个部门的全面管理,以提高工作效率。

③决策支持系统(Decision Support System,简称DSS),它是以数据库、模型库和方法库为基础,帮助管理决策者提高决策水平,改善运营策略的正确性与有效性。

目前,数据处理已广泛地应用于办公自动化、企事业计算机辅助管理与决策、情报检索、图书管理、**电视动画设计、会计电算化等等各行各业。信息正在形成独立的产业,多媒体技术使信息展现在人们面前的不仅是数字和文字,也有声情并茂的声音和图像信息。

3.辅助技术(或计算机辅助设计与制造)

计算机辅助技术包括CAD、CAM和CAI等。

⑴计算机辅助设计(Computer Aided Design,简称CAD)

计算机辅助设计是利用计算机系统辅助设计人员进行工程或产品设计,以实现最佳设计效果的一种技术。它已广泛地应用于飞机、汽车、机械、电子、建筑和轻工等领域。例如,在电子计算机的设计过程中,利用CAD技术进行体系结构模拟、逻辑模拟、插件划分、自动布线等,从而大大提高了设计工作的自动化程度。又如,在建筑设计过程中,可以利用CAD技术进行力学计算、结构计算、绘制建筑图纸等,这样不但提高了设计速度,而且可以大大提高设计质量。

⑵计算机辅助制造(Computer Aided Manufacturing,简称CAM)

计算机辅助制造是利用计算机系统进行生产设备的管理、控制和操作的过程。例如,在产品的制造过程中,用计算机控制机器的运行,处理生产过程中所需的数据,控制和处理材料的流动以及对产品进行检测等。使用CAM技术可以提高产品质量,降低成本,缩短生产周期,提高生产率和改善劳动条件。

将CAD和CAM技术集成,实现设计生产自动化,这种技术被称为计算机集成制造系统(CIMS)。它的实现将真正做到无人化工厂(或车间)。

⑶计算机辅助教学(Computer Aided Instruction,简称CAI)

计算机辅助教学是利用计算机系统使用课件来进行教学。课件可以用著作工具或高级语言来开发制作,它能引导学生循环渐进地学习,使学生轻松自如地从课件中学到所需要的知识。CAI的主要特色是交互教育、个别指导和因人施教。

4.过程控制(或实时控制)

过程控制是利用计算机及时采集检测数据,按最优值迅速地对控制对象进行自动调节或自动控制。采用计算机进行过程控制,不仅可以大大提高控制的自动化水平,而且可以提高控制的及时性和准确性,从而改善劳动条件、提高产品质量及合格率。因此,计算机过程控制已在机械、冶金、石油、化工、纺织、水电、航天等部门得到广泛的应用。

例如,在汽车工业方面,利用计算机控制机床、控制整个装配流水线,不仅可以实现精度要求高、形状复杂的零件加工自动化,而且可以使整个车间或工厂实现自动化。

5.人工智能(或智能模拟)

人工智能(Artificial Intelligence)是计算机模拟人类的智能活动,诸如感知、判断、理解、学习、问题求解和图像识别等。现在人工智能的研究已取得不少成果,有些已开始走向实用阶段。例如,能模拟高水平医学专家进行疾病诊疗的专家系统,具有一定思维能力的智能机器人等等。

6.网络应用

计算机技术与现代通信技术的结合构成了计算机网络。计算机网络的建立,不仅解决了一个单位、一个地区、一个国家中计算机与计算机之间的通讯,各种软、硬件资源的共享,也大大促进了国际间的文字、图像、视频和声音等各类数据的传输与处理。

计算机的结构体系是什么?

1. 计算机系统基础知识

计算机系统基础知识 计算机的专业知识包括有那些方面

计算机专业

解释:是计算机硬件与软件相结合、面向系统、侧重应用的宽口径专业。通过基础教学与专业训练,培养基础知识扎实、知识面宽、工程实践能力强,具有开拓创新意识,在计算机科学与技术领域从事科学研究、教育、开发和应用的高级人才。本专业开设的主要课程有:电子技术、离散数学、程序设计、数据结构、操作系统、计算机组成原理、微机系统、计算机系统结构、编译原理、计算机网络、数据库系统、软件工程、人工智能、计算机图形学、数字图像处理、计算机通讯原理、多媒体信息处理技术、数字信号处理、计算机控制、网络计算、算法设计与分析、信息安全、应用密码学基础、信息对抗、移动计算、数论与有限域基础、人机界面设计、面向对象程序设计等。

知识结构:包括社会人文知识、自然科学知识、专业基础知识、专业技术知识、经济管理知识

计算机应用基础,列表可以列出哪些

电脑硬件基础知识(一) 1.了解电脑的基本组成 一般我们看到的电脑都是由:主机(主要部分)、输出设备(显示器)、输入设备(键盘和鼠标)三大件组成。

而主机是 电脑的主体,在主机箱中有:主板、CPU、内存、电源、显卡、声卡、网卡、硬盘、软驱、光驱等硬件。从基本结构上来讲,电脑可以分为五大部分:运算器、存储器、控制器、输入设备、输出设备。

2.了解电脑系统 电脑系统分为硬件和软件两大部分,硬件相当于人的身体,而软件相当于人的灵魂。而硬件一般分为主机和外部设备,主机是一台电脑的核心部件,通常都是放在一个机箱里。

而外部设备包括输入设备(如键盘、 鼠标)和输出设备(如显示器、打印机)等。软件一般分为系统软件和应用软件。

3.组装一台电脑需要选购哪些基本部件 (1)、机箱,一般电脑的主要零件都放在这里。 (2)、显示器,用来看电脑的工作过程,要不然,你都不知道电脑究竟在做什么。

(3)、键盘和鼠标,向电脑输入有用的命令,让它去为我们工作。 (4)、主板,这是一块很重要的东西,虽然它长得有点“丑”,这里是决定你这台电脑性能的重要零件之一哦。

(5)、内存,当电脑工作时,电脑会在这里存上存储数据,相当于人的记忆。 (6)、CPU,也称中央处理器,是电脑运算和控制的核心。

(7)、显卡,电脑通过这个玩意传送给显示器。 (8)、声卡,电脑通过这个玩意传送声音给音箱的哦。

(9)、硬盘,平常人们常说我的硬盘有多少G多少G,就是指这个硬盘的容量,而G数越多能装的东西便越多。 (10)、软驱,就是插软盘的玩意,现在一般都用3.5英寸的,古老年代用5.25英寸的,现在我们去买人家都不卖了。

(11)、光驱,听CD当然少不了这个,有时候你要安装某些软件都是在光盘上的,所以这个用处太大。 (12)、电源,主要用于将220V的外接电源转换为各种直流电源,供电脑的各个部件使用 4. 如何评价一台电脑的好和坏 当然,一台电脑的好坏,是要从多方面来衡量的,不能仅看其中某个或者几个性能指标。

而一般评价一台电脑的好坏的 性能指标有如下几种: (1)、CPU的类型和时钟频率 这是电脑最主要的性能指标,它决定了一台电脑的最基本性能。以前我们常说的286、386、486、586、686等就是 按CPU的型号来叫的。

时钟频率是一台电脑按固定的节拍来工作的一种衡量方法吧,又称为主频,时钟频率越高,时钟周期就越短,它执行指令 所需要的时间便越短,运算速度就越快。 (2)、内存的容量 内存的单位是MB,平常人们总说我的内存有多少多少MB就是指这个,如32MB、64MB、128MB、256MB等,一台电脑,它的内存容量越大,则电脑所能处理的任务可以越复杂,速度也会越快。

(3)、外部设备的配置情况 高档电脑一般都有软好的显示器、键盘、鼠标、音箱等等。 (4)、运行速度 一台电脑的运行速度主要是由CPU和内存的速度所决定的。

(5)、总线类型 总线位数越多,机器性能越高。 (6)、兼容性 是否具有广泛的兼容性,包括能否运行所有电脑上开发的各种应用软件和接受电脑各类扩展卡 电脑硬件基础知识(一) 1.了解电脑的基本组成 一般我们看到的电脑都是由:主机(主要部分)、输出设备(显示器)、输入设备(键盘和鼠标)三大件组成。

而主机是 电脑的主体,在主机箱中有:主板、CPU、内存、电源、显卡、声卡、网卡、硬盘、软驱、光驱等硬件。从基本结构上来讲,电脑可以分为五大部分:运算器、存储器、控制器、输入设备、输出设备。

2.了解电脑系统 电脑系统分为硬件和软件两大部分,硬件相当于人的身体,而软件相当于人的灵魂。而硬件一般分为主机和外部设备,主机是一台电脑的核心部件,通常都是放在一个机箱里。

而外部设备包括输入设备(如键盘、 鼠标)和输出设备(如显示器、打印机)等。软件一般分为系统软件和应用软件。

3.组装一台电脑需要选购哪些基本部件 (1)、机箱,一般电脑的主要零件都放在这里。 (2)、显示器,用来看电脑的工作过程,要不然,你都不知道电脑究竟在做什么。

(3)、键盘和鼠标,向电脑输入有用的命令,让它去为我们工作。 (4)、主板,这是一块很重要的东西,虽然它长得有点“丑”,这里是决定你这台电脑性能的重要零件之一哦。

(5)、内存,当电脑工作时,电脑会在这里存上存储数据,相当于人的记忆。 (6)、CPU,也称中央处理器,是电脑运算和控制的核心。

(7)、显卡,电脑通过这个玩意传送给显示器。 (8)、声卡,电脑通过这个玩意传送声音给音箱的哦。

(9)、硬盘,平常人们常说我的硬盘有多少G多少G,就是指这个硬盘的容量,而G数越多能装的东西便越多。 (10)、软驱,就是插软盘的玩意,现在一般都用3.5英寸的,古老年代用5.25英寸的,现在我们去买人家都不卖了。

(11)、光驱,听CD当然少不了这个,有时候你要安装某些软件都是在光盘上的,所以这个用处太大。 (12)、电源,主要用于将220V的外接电源转换为各种直流电源,供电脑的各个部件使用 4. 如何评价一台电脑的好和坏 当然,一台电脑的好坏,是要从多方面来衡量的,不能仅看其中某个或者几个性能指标。

而一般评价一台电脑的好坏的 性能指标有如下几种。

学习计算机需要哪些知识

首先需要基础很扎实,别以为学计算机就可以不学英语和数学,其实学计算机最重要的就是数学和英语.所有的计算机算法都是要靠逻辑数学和高等数学而得来的,所以学好大学数学,对以后理解计算机工作原理,编程序会有很大的帮助的;而英语更为重要,这关系着你的未来的发展,因为当今世界,强大的计算机公司大多都是在美国,所以要想有所作为,要想去外资企业工作,那必须要有很强的英语能力.而且目前大多数计算机书籍都是翻译的外国原版,所以根据翻译者的能力不同会对原本书籍某些重要意思产生误解,误导一些中国读者,当我们有很好的英语水平,我们就可以直接去学习原版英文书籍,对它的意境会有更深的体会,学到更为标准的计算机知识.

其次,要想学好计算机,就必须从基础开始,从硬件,到软件,从WORD到PS,这样的基础操作要熟悉

下面是在大学里学习计算机科学与技术的主要课程

离散数学 数据结构 汇编语言程序设计 数值分析 操作系统原理 微机接口技术 数据库系统原理 计算机组成原理 计算机通信与网络 编译原理 计算机系统结构 软件工程(c语言,JAVA语言等)

可以看出,要想学好计算机并不是一个简单的事,必须从现在就要了解,一步一步的学习才可```

回答你的补充问题,其实基础知识不大需要,只要你对电脑操作熟悉就可以了,学任何东西光靠脑子聪明是不够的,还需十倍的勤奋才行,所以这也不靠什么脑子,只要自己喜欢钻研,努力就可以学得很好

计算机专业的应该具备哪些知识?

计算机专业应该具备以下基础知识:

1.掌握电子技术和计算机组成与体系结构的基本原理、分析方法和实验技能,能从事计算机硬件系统开发与设计。

2.掌握程序设计语言、算法与数据结构、操作系统以及软件设计方法和工程的基本理论、基本知识与基本技能,具有较强的程序设计能力,能从事系统软件和大型应用软件的开发与研制。

3.掌握并行处理、分布式系统、网络与通信、多媒体信息处理、计算机安全、图形图象处理以及计算机辅助设计等方面的基本理论、分析方法和工程实践技能,具有计算机应用和开发的能力。

4.掌握计算机科学的基本理论,具有从事计算机科学研究的坚实基础。

计算机专业开设的主要课程有:电子技术、离散数学、程序设计、数据结构、操作系统、计算机组成原理、微机系统、计算机系统结构、编译原理、计算机网络、数据库系统、软件工程、人工智能、计算机图形学、数字图像处理、计算机通讯原理、多媒体信息处理技术、数字信号处理、计算机控制、网络计算、算法设计与分析、信息安全、应用密码学基础、信息对抗、移动计算、数论与有限域基础、人机界面设计、面向对象程序设计等。

计算机基础知识有什么

计算机基础可以分为硬件和软件 硬件:主板、CPU、硬盘、内存、显卡、机箱电源、鼠标键盘、光驱、音响等 软件:WINDOWS系统、OFFICE等一般基本工具的应用与系统的安装。

第一步:弄明白主机和显示器的区别,别笑!!真有不知道的,我单位商务客房有的客人就只开显示器,不亮,就说电脑坏了. 第2:分清鼠标左右键.别笑,真弄清楚什么时候该左什么时候该右的时候,你就可以说我会电脑了. 第3:知道键盘上的键都叫什么?别笑?没准你就有一两个键不知道叫什么?干什么用就更不知道了,等你知道了,你就离高手不远了. 第4:明白电脑上的接口能 *** 去的就是插对了,键鼠和音频接口除外. 第5:明白练打字的最好办法就是上网聊天.千万不要用音频聊,那一点长进没有. 第6:明白一个道理:想学好,先搞坏,长进快. 第7:明白WINDOWS的帮助(F1)是最大垃圾,什么问题也解决不了!好了,你已是高手了. 第8:这绝对原创,是我一边回想我12年电脑生涯一边打出来的,版权归BAIDU所有,引用请注明出处,不得用于商业赢利之目的.看完后请马上忘掉,喜欢请购买正版.全国计算机等级考试一级机试,内容包括选择题、Windows基本操作题、汉字录入题、Word操作题、Excel操作题、PowerPoint操作题以及因特网操作题。 计算机一级考试内容提纲基本要求 1.具有使用微型计算机的基础知识(包括计算机病毒的防治常识)。

2 了解微型计算机系统的组成和各组成部分的功能。 3,了解操作系统的基本功能和作用.掌握Windows的基本操作和应用。

4.了解文字处理的基本知识,掌握文字处理软件"MS Word”的基本操作和应用,熟练掌握 一种汉字(键盘),输人方法。 5.了解电子表格软件的基本知识,掌握电子表格软件"Excel”的基本操作和应用。

6.了解多媒体演示软件的基奉知识.掌握演示文稿制作软件"PowerPoint”的基本操作和应用。 7 了解计算机网络的基本概念和因特同(Inter)的初步知识. 8. 掌握IE浏览器软件和“OutlookExpress”软件的基本操作和使用。

计算机初级考试有那些内容?

计算机初级考试内容 初级考核内容为:计算机基础知识、操作系统、字处理软件的使用(WORD)、电子表格的使用(Excel)、计算机网络知识共五部分内容 考试内容 (一)、计算机系统的基本知识 1、计算机系统的组成,主要部件的结构和功能。

2、数制和字符编码的基本概念:二进制、十六进制、ASCII码。 3、软件和程序的概念,数据存储基本单位(字节以及KB、MB、GB)的概念。

4、微型计算机的基本配置。 5、常用存储设备(软盘、硬盘、光盘驱动器等)和外部设备(键盘、鼠标器、显示器、打印机等)的使用维护方法。

6、计算机信息安全和防治病毒的基本知识。 (二)、操作系统的使用 1、微机操作系统的概念。

2、文件与文件夹(目录)的基本知识。 3、Windows系统的功能和特点,帮助系统的使用。

4、鼠标与键盘的操作 5、中文Windows 95/98。 ⑴桌面、窗口、图标、菜单、工具栏、对话框的基本概念和基本操作。

⑵“我的电脑”、“开始”菜单、任务栏和资源管理器的使用。 ⑶文件、文件夹和快捷方式的建立、移动、删除、复制、重命名等操作。

6、常用汉字输入方法的使用 7、常见Windows应用程序的使用(记事本、画图、计算器、写字板) (三)、字处理软件的使用(Word 97/2000) 1、字处理软件的基本概念和基本操作 菜单和工具栏的操作,标尺的使用,文件的建立、打开和保存等,移动插入点的基本方法。 2、文字的录入和编辑操作 ⑴在文档中进行文字录入、插入、删除和修改操作。

⑵查找和替换操作。 ⑶复制和移动操作。

3、文档的格式化操作 ⑴设置字体、字形、字号、字符间距等字符格式,字符格式复制。 ⑵设置首行缩进、段落与行间距,对齐方式等段落格式。

⑶设置纸张大小、页边距等页面格式。 ⑷插入页码、分页符、分节符和分栏符,设置页眉和页脚等。

⑸边框(字符、段落和页面)和底纹。 4、表格的基本操作:创建表格,表格的录入和编辑。

5、插入和图文表混排操作:在文档中插入、艺术字。 6、打印的基本知识:文件打印与打印预览操作。

(四)、电子表格软件的使用(Excel 97/2000) 1、表处理的基本概念和基本操作。 窗口、菜单、工具栏和编辑栏的操作,工作簿文件的建立、打开、关闭与保存,工作表的编辑,多工作表操作,单元格光标的定位,活动单元格光标的选择等。

2、工作表的格式化和对齐,数据的移动和复制,单元格和单元格区域的命名,工作表的保护。 3、工作表中的计算,单元格引用(相对、绝对、混合引用),常用内部函数的使用,公式的使用。

常用内部函数:INT,SUM,LEFT,LEN,MID,RIGHT,AVERAGE,COUNT,MAX,MIN,IF,DATE,YEAR。 4、数据库管理:数据库的创建和数据编辑,数据查找和排序,分类汇总,数据筛选 5、图表:图表的创建和保存,图表类型的改变 (五)、计算机网络基本知识 1、计算机网络的基本概念 ⑴计算机网络的含义 ⑵计算机网络的基本功能 2、Inter的基本概念,Inter提供的基本服务功能:E-Mail、WWW、FTP等。

四、考试方法与题型 考试全部在计算机上进行,考试时间2小时(120分钟)。考试题型包括客观题和操作题,其中: 1、客观题20%,题型包括: ⑴判断题 ⑵单选题。

2、操作题80%,题型包括: ⑴文件管理:文件和文件夹的基本操作。 ⑵文字录入:输入给定的文章,汉字输入方法任选 ⑶文档格式化操作:按指定格式对给定文档进行格式化(字体格式、段落格式、页面格式),插入。

⑷表格制作与计算:按指定格式编制或填充、修改表格,表格自动套用格式,插入或删除表格中的行或列,行高和列宽的调整,单元格的拆分和合并等。 ⑸电子表格操作 ①按要求建立、编辑工作表; ②工作表中行、列和单元格的插入、删除和填充; ③工作表中单元格的格式化,数字格式的使用; ④公式、单元格引用和常用函数的使用; ⑤数据库操作:排序、筛选和分类汇总。

⑥图表的建立和保存。

计算机系统的基础知识

你不是有书吗?那上面讲的很详细啊。

你还到网上来问~~(WTH留) 计算机的四特点: 1.有信息处理的特性。 2.有程序控制的特性。

3.有灵活选择的特性。 4.有正确应用的特性。

计算机发展经历5个重要阶段: 1 大型机阶段。 2 小型机阶段。

3 微型机阶段。 4 客户机/服务器阶段。

5 互联网阶段。 计算机现实分类: 服务器,工作站,台式机,便携机,手持设备。

计算机传统分类: 大型机,小型机,PC机,工作站,巨型机。 计算机指标: 1.位数。

2.速度。 MIPS是表示单字长定点指令的平均执行速度。

MFLOPS是考察单字长浮点指令的平均执行速度。 3.容量。

Byte用B表示。1KB=1024B。

平均寻道时间是指磁头沿盘片移动到需要读写的磁道所要的平均时间。平均等待时间是需要读写的扇区旋转到磁头下需要的平均时间。

数据传输率是指磁头找到所要读写的扇区后,每秒可以读出或写入的字节数。 4 带宽。

Bps用b 5 版本。 6 可靠性。

平均无故障时间MTBF和平均故障修复时间MTTR来表示。 计算机应用领域: 1 科学计算。

2 事务处理。 3 过程控制。

4 辅助工程。 5 人工智能。

6 网络应用。 一个完整的计算机系统由软件和硬件两部分组成。

计算机硬件组成四个层次: 1 芯片。 2 板卡。

3 设备。 4 网络。

奔腾芯片的技术特点: 1。超标量技术。

通过内置多条流水线来同时执行多个处理,其实质是用空间换取时间。 2.超流水线技术。

通过细化流水,提高主频,使得机器在一个周期内完成一个甚至多个操作,其实质是用时间换取空间。经典奔腾采用每条流水线分为四级流水:指令预取,译码,执行和写回结果。

3.分支预测。 4.双CACHE哈佛结构:指令与数据分开。

7 固化常用指令。 8 增强的64位数据总线。

9 采用PCI标准的局部总线。 10 错误检测既功能用于校验技术。

11 内建能源效率技术。 12 支持多重处理。

安腾芯片的技术特点。 64位处理机。

奔腾系列为32位。INTER8080-8位。

INTER8088-16位。 复杂指令系统CISC。

精简指令技术RISC。 网络卡主要功能: 2 实现与主机总线的通讯连接,解释并执行主机的控制命令。

3 实现数据链路层的功能。 4 实现物理层的功能。

软件就是指令序列:以代码形式储存储存器中。 数据库软件是桌面应用软件。

程序是由指令序列组成的,告诉计算机如何完成一个任务。 软件开发的三个阶段: 2 计划阶段。

分为问题定义,可行性研究。 3 开发阶段。

分为需求分析,总体设计,详细设计。 4 运行阶段。

主要是软件维护。 在编程中,人们最先使用机器语言。

因为它使用最贴近计算机硬件的2进制代码,所以为低级语言。 符号化的机器语言,用助记符代替2进制代码,成汇编语言。

把汇编语言源程序翻译成机器语言目标程序的工具,就成为汇编程序。 把 反汇编程序。

把高级语言源程序翻译成机器语言目标程序的工具,有两种类型:解释程序与编译程序。 编译程序是把输入的整个源程序进行全部的翻译转换,产生出机器语言的目标程序,然后让计算机执行从而得到计算机结果。

解释程序就是把源程序输入一句,翻译一句,执行一句,并不成为整个目标程序。 多媒体技术就是有声有色的信息处理与利用技术。

多媒体技术就是对文本,声音,图象和图形进行处理 ,传输,储存和播发的集成技术。 多媒体技术分为偏软件技术和偏硬件技术。

多媒体硬件系统的基本组成有: 1.CD-ROM。 2.具有A/D和D/A转换功能。

3.具有高清晰的彩色显示器。 4. 具有数据压缩和解压缩的硬件支持。

多媒体的关键技术: 1 数据压缩和解压缩技术: JPEG:实用与连续色调,多级灰度,彩色或单色静止图象。 MPEG:考虑音频和视频同步。

2 芯片和插卡技术。 3 多媒体操作系统技术。

4 多媒体数据管理技术。 一种适用于多媒体数据管理的技术就是基于超文本技术的多媒体管理技术,及超媒体技术。

当信息不限于文本时,称为超媒体。 1 结点。

2。链。

超媒体系统的组成: 2 编辑器。编辑器可以帮助用户建立,修改信息网络中的结点和链。

3 导航工具。一是数据库那样基于条件的查询,一是交互样式沿链走向的查询。

4 超媒体语言。超媒体语言能以一种程序设计方法描述超媒体网络的构造,结点和其他各种属性。

计算机系统结构主要研究计算机系统的基本工作原理,以及在硬件、软件界面划分的权衡策略,建立完整的、系统的计算机软硬件整体概念。

计算机系统结构指的是什么? 是一台计算机的外表? 还是是指一台计算机内部的一块块板卡安放结构? 都不是,那么它是什么? 计算机系统结构就是计算机的的机器语言程序员或编译程序编写者所看到的外特性。所谓外特性,就是计算机的概念性结构和功能特性。用一个不恰当的比喻一,比如动物吧,它的"系统结构"是指什么呢? 它的概念性结构和功能特性,就相当于动物的器官组成及其功能特性,如鸡有胃,胃可以消化食物。至于鸡的胃是什么形状的、鸡的胃部由什么组成就不是"系统结构"研究的问题了。系统结构只管到这一层。关于计算机系统的多层次结构,用"人"这种动物的不恰当的例子列表对比如下:(这种联系很不科学,只是大家轻松一下)。

计算机系统

应用语言级

为人民服务级

高级语言级

读书、学习级

汇编语言级

语言、思维级

操作系统级

生理功能级

传统机器级

人体器官级

微程序机器级

细胞组织级

电子线路级

分子级

传统机器级以上的所有机器都称为虚拟机,它们是由软件实现的机器。软硬件的功能在逻辑上是等价的,即绝大多部分硬件的功能都可用软件来实现,反之亦然。

计算机系统结构的外特性,一般应包括以下几个方面(这也就是我们要分章学习的几个章节)把这几个方面弄清了,系统结构也就基本明确了:

(1)指令系统 (2)数据表示 (3)作数的寻址方式 (4)寄存器的构成定义 (5)中断机构和例外条件 (6)存储体系和管理 (7)I/O结构 (8)机器工作状态定义和切换 (9)信息保护。

所以在以后的学习中常回头想想这是系统结构的哪一方面,这对把握全局有好处。

这里提一下计算机系统结构的内部特性,计算机系统结构的内特性就是将那些外特性加以"逻辑实现"的基本属性。所谓"逻辑实现"就是在逻辑上如何实现这种功能,比如"上帝"给鸡设计了一个一定大小的胃,这个胃的功能是消化食物,这就是鸡系统的某一外特性,那怎么消化呢,就要通过鸡喙吃进食物和砂石,再通过胃的蠕动、依靠砂石的研磨来消化食物,这里的吃和蠕动等操作就是内特性。

还有一个就是计算机实现,也就是计算机组成的物理实现。它主要着眼于器件技术和微组装技术。拿上面的例子来说,这个胃由哪些组织组成几条肌肉和神经来促使它运动就是"鸡实现"。

据此我们可以分清计算机系统的外特性、内特性以及物理实现之间的关系。 在所有系统结构的特性中,指令系统的外特性是最关键的。因此,计算机系统结构有时就简称为指令集系统结构。我们这门课注重学习的是计算机的系统结构,传统的讲,就是处在硬件和软件之间介面的描述,也就是外特性。

这些不恰当的比喻只是帮助理解,不可强求对应,不然会有损科学的严密性。

计算机系统结构的分类

按"流"分类的方法,这是Flynn教授提出的按指令流和数据流的多倍性概念进行分类的方法。共有四大类,即:(S-single 单一的 I-instruction 指令 M-multiple 多倍的 D-data 数据)

SISD 单指令流单数据流,传统的单处理机属于SISD计算机。

SIMD 单指令流多数据流,并行处理机是SIMD计算机的典型代表。我国的YH-I型是此类计算机型。

MISD 多指令流单数据流,实际上不存在,但也有学者认为存在。

MIMD 多指令流多数据流,包括了大多数多处理机及多计算机系统。我国的YH-II型计算机是这种类型的计算机。

一般将标量流水机视为SISD类型,把向量流水机视为SIMD类型。

按"并行级"和"流水线"分类:这是在计算机系统中的三个子系统级别上按并行程度及流水线处理程度进行分类的方法。

--------------------------------------------------------------------------------

二、计算机系统的设计准则

1.只加速使用频率高的部件

这是最重要也是最广泛采用的计算机设计准则。因为加快处理频繁出现事件对系统的影响远比加速处理很少出现事件的影响要大。

2.阿姆达尔(Amdahl)定律

这个定律就是一个公式:即

应会运用此公式做一些计算或分析,所以要记住并理解其意义。

3.程序访问的局部性规律

程序访问的局部性主要反映在时间和空间局部性两个方面,时间局部性是指程序中近期被访问的信息项可能马上将被再次访问,空间局部性指那些在访问地址上相邻近的信息项很可能被一起访问。

三、计算机系统结构的发展

冯·诺依曼计算机的主要特点是:存储程序方式;指令串行执行,并由控制器加以集中控制;单元定长的一维线性空间的存储器;使用低级机器语言,数据以二进制表示;单处理机结构,以运算器为中心。

改进后的冯·诺依曼计算机使其从原来的以运算器为中心演变为以存储器为中心。 从系统结构上讲,主要是通过各种并行处理手段高提高计算机系统性能。

软件、应用和器件对系统结构发展的影响

软件应具有可兼容性,即可移植性。为了实现软件的可移植性,可用以下方法:

模拟:用软件方法在一台现有的计算机上实现另一台计算机的指令系统,这种用实际存在的机器语言解释实现软件移植的方法就是模拟。

仿真:用A机(宿主机)中的一段微程序来解释实现B机(目标机)指令系统中每一条指令而实现B机指令系统的方法称仿真,它是有部份硬件参与解释过程的。

一般将两种方法混合作用,对于使用频率高的指令用仿真方法,而对于频率低而且难于仿真实现的指令使用模拟的方法加以实现。

采用系列机的方法,可以这么说,系列机的系统结构都是一致的,如我们使用的INTEL 的80X86微机系列及其兼容机,系统结构都是一致的,当然在发展过程中它的系统结构可以得到了新的扩充,比如原来的586机器不支持MMX多媒体扩展指令集,但是后来的芯片中扩充了这些指令,使指令系统集扩大,但它们仍是同一系列的机器。这种系列机的方法主要是为了软件兼容。如上面的扩展指令,将使得以后针对这些指令优化的软件不能在以前的机子上运行(或不能发挥相应功能)导致向前兼容性不佳。但重要的是保证做到向后兼容,也就是在按某个时期推到市场上的该档机上编制的软件能不加修改地在它之后投入市场的机器上运行。

在系列机上,软件的可称植性是通过各档机器使用相同的高级语言、汇编语言和机器语言,但使用不同的微程序来实现的。

统一标准的高级语言

采用与机器型号无关的高级程序设计语言标准如FORTRAN、COBOL等,这种方法提供了在不同硬件平台、不同操作系统之间的可移植性。

开放系统:是指一种独立于厂商,且遵循有关国际标准而建立的,具有系统可移植性、交互操作性,从而能允许用户自主选择具体实现技术和多厂商产品渠道的系统集成技术的系统。

应用需求对系统结构发展的影响

计算机应用对系统结构不断提出的基本要求是高的运算速度、大的存储容量和大的I/O吞吐率。(我们要更快的主板CPU和内存、我们要更大的硬盘我们要更大的显示器更多的色彩更高的刷新频率...这就是需求)

计算机应用从最初的科学计算向更高级的更复杂的应用发展,经历了从数据处理、信息处理、知识处理以及智能处理这四级逐步上升的阶段。

器件对系统结构发展的影响

由于技术的进步,器件的性能价格比迅速提高,芯片的功能越来越强,从而使系统结构的性能从较高的大型机向小型机乃至微机下移。

综上所述:

软件是促使计算机系统结构发展的最重要的因素(没有软件,机器就不能运行,所以为了能方便地使用现有软件,就必须考虑系统结构的设计。软件最重要)

应用需求是促使计算机系统结构发展的最根本的动力(机器是给人用的,我们追求更快更好,机器就要做得更快更好。所以需求最根本)

器件是促使计算机系统结构发展最活跃的因素(没有器件就产不出电脑,器件的每一次升级就带来计算机系统结构的改进。没看见上半年刚买的机子,下半年就想把它扔进历史的垃圾堆么^_^,所以器件最活跃) 。