You are on page 1of 30

EVALUACION DE SISTEMAS DE

COMPUTO

ALUM: VAZQUEZ CEDILLO MARIO ALBERTO

SEC: 5NV1

INVESTIGACION

2° UNIDAD

1
INDICE
2.1. Evaluación del hardware……………………………………………………………3

2.1.1. Consideraciones para la adquisición……………………………………………3

2.1.2. Consideraciones de operación…………………………………………………..7

2.1.3. Capacidad de crecimiento…………………………………………………….....10

2.1.4. Consideraciones de mantenimiento…………………………………………….10

2.1.5. Desarrollo de especificaciones de hardware…………………………………..14

2.1.6. Pruebas de rendimiento (Benchmark)………………………………………….17

2.2 Herramientas…………………………………………………………………………25

2.2.1. Familia de hardware de la computadora personal de IBM……………………26

CONCLUSIONES…………………………………………………………………...........29

BIBLIOGRAFIA…………………………………………………………………………….30

2
2.1 EVALUACIÓN DE HARDWARE

Es frecuente que una empresa adquiera un equipo de computo que al poco tiempo no
cubre ya sus requerimientos de procesamiento de dates. Esto es producto,
fundamentalmente, de no haber realizado un estudio a fondo de Io que se requería de
dicho equipo y las necesidades reales de la empresa. Este aspecto ha prevalecido
durante décadas, porque muchas empresas no entienden que adquirí el equipo de
computo. mas que resolverles de manera inmediata un problema, automáticamente les
implica otros. Muchos directivos no son advertidos por su personal técnico acerca de que
la inversión en tecnología no solo esta en las herramientas

que se adquieren, sino en la capacitación para saberlas utilizar de acuerdo con sus
necesidades reales de automatización. Por eso sucede que:

• EI equipo queda obsoleto al poco tiempo.

• El equipo no se aprovecha al 100%.

• Gran cantidad del equipo resulta incompatible con las nuevas maquinas, o no es posible
intercambiar información o hacer respaldos con otras instalaciones.

• EI equipo se satura cuando entra en producción por no haber analizado con certeza las
cargas de trabajo ni los volúmenes de información a los cuales iba a ser sometido.

• EI equipo no se utiliza como se debe porque el personal especializado es escaso y la


capacitación as difícil de conseguir.

2.1.1 Consideraciones para la adquisición.

Durante el desarrollo de software, las distintas técnicas de evaluación son las principales
estrategias para detectar faltas y fallos. Por tanto, son métodos de control de la calidad.
En términos generales, se pueden distinguir dos tipos de evaluaciones durante el proceso
de desarrollo: Verificaciones y Validaciones. Según el IEEE Std 729-1983 éstas se
definen como:

3
 Verificación: Proceso de determinar si los productos de una determinada fase del
desarrollo de software cumplen o no los requisitos establecidos durante la fase
anterior.
 Validación: Proceso de evaluación del software al final del proceso de desarrollo
para asegurar el cumplimiento de las necesidades del cliente.

Así, la verificación ayuda comprobar si se ha construido el producto correctamente,


mientras que la validación ayuda a comprobar si se ha construido el producto correcto. En
otras palabras, la verificación tiene que ver típicamente con errores de los desarrolladores
que no han transformado bien un producto del desarrollo en otro. Mientras que la
validación tiene que ver con errores de los desarrolladores al malinterpretar las
necesidades del cliente. Así la única persona que puede validar el software, ya sea
durante su desarrollo como una vez finalizado, es el cliente, ya que será quien pueda
detectar si hubo o no errores en la interpretación de sus necesidades.
Tanto para la realización de verificaciones como de validaciones se pueden utilizar
distintos tipos de técnicas. En general, estas técnicas se agrupan en dos categorías:

 Técnicas de Evaluación Estáticas: Buscan faltas sobre el sistema en reposo.


Esto es, estudian los distintos modelos que componen el sistema software
buscando posibles faltas en los mismos. Así pues, estas técnicas se pueden
aplicar, tanto a requisitos como a
modelos de análisis, diseño y código.
 Técnicas de Evaluación Dinámicas: Generan entradas al sistema con el objetivo
de detectar fallos, al ejecutar dicho sistema sobre esas entradas. Esto es, se pone
el sistema a funcionar buscando posibles incongruencias entre la salida esperada
y la salida real. La aplicación de técnica dinámicas es también conocido como
pruebas del software o testing y se aplican generalmente sobre código que es, hoy
por hoy, el único producto ejecutable del desarrollo.

Veamos en la siguiente sección cómo estas técnicas de evaluación han de aplicarse


durante todo el proceso de desarrollo. Pero antes recordemos que todo proceso de
evaluación además de la posible detección de defectos conlleva un proceso de
depuración, esto es la corrección de los mismos.

Ambas tareas (detección y correción) pueden realizarse por una misma persona o por
personas distintas según la organización y el modelo de desarrollo sobre el que se esté
aplicando la técnica. Tal como se ha indicado anteriormente, es necesario evaluar el
sistema software a medida que se va avanzando en el proceso de desarrollo de dicho
sistema. De esta forma se intenta que la detección de defectos se haga lo antes posible y
tenga menor impacto en el tiempo y esfuerzo de desarrollo.

Ahora bien ¿cómo se realiza esta evaluación?

Las técnicas de evaluación estática se aplican en el mismo orden en que se van


generando los distintos productos del desarrollo siguiendo una filosofía top-down. Esto es,
la evaluación estática acompaña a las actividades de desarrollo, a diferencia de la
evaluación dinámica que únicamente puede dar comienzo cuando finaliza la actividad de
codificación, siguiendo así una estregia botomup.
La evaluación estática es el único modo disponible de evaluación de artefactos para las
primeras fases del proceso de desarrollo (análisis y diseño), cuando no existe código.

4
Esta idea se muestra en la Figura 1 en la que como se observa la evaluación estática se
realiza en el mismo sentido en que se van generando los productos del desarrollo de
software, mientras que la dinámica se realiza en sentido inverso.

Más concretamente, la Figura 2 muestra en detalle la aplicación de las técnicas estáticas


y dinámicas para evaluar software. La evaluación estática (conocida con el nombre
genérico de Revisiones) se realiza en paralelo al proceso de construcción, constando de
una actividad de
evaluación emparejada con cada actividad de desarrollo. Es decir, la actividad de
Definición de Requisitos de Usuario va acompañada de una actividad de Revisión de
Requisitos de Usuario, la actividad de Definición de Requisitos Software va emparejada
con su correspondiente actividad de revisión y así, sucesivamente.
Las actividades de revisión marcan el punto de decisión para el paso a la siguiente
actividad de desarrollo. Es decir, la actividad de requisitos interactúa con la actividad de
revisión de requisitos en un bucle de mejora iterativa hasta el momento en que la calidad
de los requisitos permite abordar la subsiguiente fase de desarrollo. Lo mismo ocurre con
el diseño arquitectónico: sufrirá una mejora iterativa hasta que su nivel de calidad permita
pasar al diseño detallado y así, sucesivamente. Nótese que esto también ocurre en la fase
de codificación. La actividad siguiente a la de implementación es la fase de pruebas
unitarias. No obstante, antes de pasar a ella, los programas deberán evaluarse
estáticamente. Del mismo modo que se ha hecho con los otros productos.

Modelo en V de Evaluación de Software

Por tanto, las actividades de evaluación estática constituyen los puntos de control o
revisión utilizados por los gestores de proyectos y las organizaciones para evaluar tanto la
calidad de los productos como el progreso del proyecto. Es decir, las actividades de

5
revisión son una herramienta de control para el producto software.
Una vez realizadas estas revisiones se procede con la evaluación dinámica, que como ya
se ha indicado se realiza sobre el código. Aunque más adelate se estudiarán en detalle
los distintos tipos de pruebas dinámicas, se puede indicar que la primera prueba a realizar
es la denominada Prueba de Unidad en la que se buscan errores en los componentes
más pequeños del programa (módulos).
Estos errores se detectan cuando dichos componentes no actúan como se ha
especificado en el diseño detallado. Seguidamente, se prueban los distintos componentes
que constituyen el software en la denominada Prueba de Integración. Esta prueba está
orientada a detectar fallos provocados por una incorrecta comunicación entre módulos (no
acorde con la especificación de diseño de alto nivel). El software se puede ejecutar en un
contexto hardware concreto, por lo que la Prueba de Sistema es la que se encarga de
buscar errores en este ensamblaje sofware/hardware. Finalmente, el usuario ha de
realizar la Prueba de Aceptación final sobre el sistema completo.

Nótese cómo la evaluación de los productos software mediante revisiones permite contar
con una estimación temprana de la calidad con que se está llevando a cabo el desarrollo.
Esto es así porque las revisiones encuentran faltas, pero la cantidad de faltas encontradas
en un producto dan una idea de las faltas que aún pueden quedar así como de la calidad
del trabajo de desarrollo de dicho producto. La experiencia parece indicar que donde hay
un defecto hay otros. Es decir, la probabilidad de descubrir nuevos defectos en una parte
del software es proporcional al número de defectos ya descubiertos. Es en este principio
sobre el que se basan los métodos de estimación de los defectos que quedan en un
software; ya sean los modelos de fiabilidad (que utilizan como entrada los fallos
encontrados durante las pruebas) ya sean los métodos de estimación del contenido de
faltas (que utilizan como entrada las faltas encontradas mediante revisiones). No
obstante, es gracias a la evaluación estática que se puede realizar esta estimación de la
calidad del software de manera temprana, puesto que los modelos de fiabilidad requieren
el código ya desarrollado para dar una indicación de los posibles fallos que quedan
remanentes en dicho código.

Así pues, la importancia de las técnicas estáticas de evaluación a la hora de controlar el


nivel de calidad con el que se está llevando a cabo el desarrollo es crucial. Los modelos
que utilizan los datos de las técnicas de testing, ayudan a predecir la fiabilidad del
software que se está entregando (cuántas fallos quedan en el sistema sin encontrar), pero
poco se puede hacer ya, excepto seguir probando el sistema hasta elevar el nivel de
fiabilidad del mismo. Sin embargo, la estimación de faltas que aún quedan en un producto
utilizando datos de las revisiones permiten dos acciones que ayudan a prevenir futuros
defectos en el proyecto:

 Seguir revisando el producto para disminuir el número de faltas remanentes. Por


tanto esta detección temprana previene encontrar estas faltas en estadios más
avanzados del desarrollo. Es decir, la falta que detectemos en los requisitos
estaremos evitando contagiarla al diseño y al código.
 Tomar medidas correctivas del desarrollo si las estimaciones indican que se está
llevando a cabo un trabajo pobre. Es decir, si las estimaciones de faltas
remanentes indican que un determinado producto contiene más faltas de las
habituales, algo se está haciendo mal (hay problemas en el equipo de desarrollo,
algún miembro del equipo tiene problemas que está afectando a su trabajo, hay
problemas con las técnicas que se están utilizando, quizás el equipo no las conoce

6
bien, etc.) y deben tomarse acciones que remedien o palien estos problemas antes
de que afecten al resultad final del proyecto.

Cuando el software se adquiere ya desarrollado (compra de paquetería o funcionando en


otra organización) las pruebas cobran especial importancia, sobre todo las de integración.
Sistema y aceptación, si los resultados no son satisfactorios el software (y en su caso el
hardware) no debe adquirirse hasta que cambios o modificaciones en éste o en el equipo
permitan obtener una garantía de satisfacción al adquiriente.

2.1.2 Consideraciones de operación.


La razón para buscar defectos en productos tempranos es porque éstos se traducen en
defectos en la funcionalidad del producto final. Es decir, defectos en los requisitos se
traducirán en defectos en el sistema final. Veamos una analogía con la arquitectura de
edificios. Si en un plano el color de una línea indica su significado, una confusión en el
color se traducirá en un error en el edificio. Por ejemplo, si el azul indica tuberías de agua
y el amarillo cables eléctricos y el arquitecto comete un error usando el azul en una
conducción eléctrica, los electricistas que usen el plano como guía para su trabajo no
colocarán cables eléctricos mientras que los fontaneros colocarán tuberías de agua donde
no debían ir. El plano de un edificio es el artefacto equivalente al diseño de un producto
software. Si un diseño contiene defectos, seguramente estos defectos se trasmitirán al
código cuando los programadores usen ese diseño como guía para su trabajo.
La detección temprana de errores acarrea grandes beneficios. Si las revisiones
únicamente se aplican al código mejoran la calidad y producen ahorros en los costos del
proyecto. Pero los ahorros son mayores si se inspeccionan artefactos tempranos del
desarrollo. Estudiando los resultados publicados sobre ahorros con las revisiones, puede
afirmarse que la utilización de inspecciones de código produce un ahorro del 39% sobre el
coste de detectar y corregir defectos, frente a únicamente utilizar la evaluación dinámica.
Sin embargo, el ahorro es del 44% si se inspecciona también el diseño.

La experiencia demuestra que entre el 30% y el 70% de los defectos, de diseño y código
son detectados por las técnicas estáticas. Esto supone un gran ahorro, pues la corrección
es más fácil y menos costosa durante la evaluación estática que durante la dinámica.
Nótese que cuando durante la evaluación dinámica del sistema se detecta una fallo en un
programa, lo que se detecta es el fallo, no la falta que lo provoca. Es decir, tras la
detección del fallo, se requiere una labor de localización en el programa de la falta que
provocó el fallo. Sin embargo, con las técnicas estáticas, lo que se detecta son
directamente faltas. Por tanto, una vez detectada, se puede pasar a la fase de corrección.
Es decir, desaparece la tarea de localización de la falta. Esto significa, que las técnicas
estáticas son más baratas por falta que las dinámicas.
Las revisiones también proporcionan beneficios más generales. Entre éstos se pueden
citar los siguientes:

 Evaluación del progreso del proyecto


 Potencia las capacidades de los participantes
 Mejoran la comunicación entre el equipo de desarrollo, aumentando su motivación,

pues los productos pasan a ser documentos públicos.

7
 Proporciona aprendizaje, retroalimentación y prevención
 Forma y educa a los participantes

En el caso concreto de las revisiones de código, éstas, además, permiten localizar


secciones críticas, lo que permitirá dedicar un mayor esfuerzo a ellas en la fase de
pruebas.
La evaluación estática de los distintos artefactos o productos que se generan en el
desarrollo de software (especificación de requisitos, modelos conceptuales, diseño,
código, etc.) pretende comprobar su calidad.
La calidad significa una cosa distinta para cada producto, precisamente porque son
artefactos distintos. Del mismo modo que la calidad de un plano y la calidad de una casa
significa cosas distintas. En un plano de un futuro edificio se desea que sea claro (se
entienda suficientemente bien como para servir de guía a la construcción del edificio), que
sea correcto (por ejemplo, que las líneas que identifican paredes indiquen, a escala,
efectivamente el lugar donde se desea que vayan las paredes), que no tenga
inconsistencias (por ejemplo, entre las distintas hojas que forman el plano; si una página
se focaliza, digamos, en una habitación que en otra página aparecía sólo sus cuatro
paredes, que las medidas de las líneas en ambas páginas se correspondan con la misma
medida de la realidad), etc.. Sin embargo, de una casa se espera que sea robusta (por
ejemplo, que no se caiga), usable (por ejemplo, que los peldaños de las escaleras no
sean tan estrechos que provoquen caídas) etc. Por tanto, cuando se esté evaluando
estáticamente un producto software, es importante que el evaluador tenga en mente qué
tipo de defectos está buscando y cuál sería un producto de ese tipo de calidad adecuada.
Digamos que si uno no sabe lo que busca (por ejemplo, inconsistencias al revisar la
calidad de un plano) es difícil que lo encuentre, aunque lo tenga delante.

Los defectos que se buscan al evaluar estáticamente los productos software son:

• Para los REQUISITOS:

 Corrección.- Los requisitos especifican correctamente lo que el sistema debe


hacer. Es decir, un requisito incorrecto es un requisito que no cumple bien su
función. Puesto que la función de un requisito es indicar qué debe hacer el
sistema, un requisito incorrecto será aquel que, o bien pide que el sistema haga
algo que no es lo que debe hacer, o pide que haga algo que no deba hacer.

 Compleción.- Especificación completamente del problema. Está especificadotodo


lo que tiene que hacer el sistema y no incluye nada que el sistema no deba hacer.
En dos palabras: no falta nada; no sobra nadaConsistencia. No hay requisitos
contradictorios.

 Ambigüedad.- Los requisitos no pueden estar sujetos a interpretación. Si fuese


así, un mismo requisito puede ser interpretado de modo distinto por dos personas
diferentes y, por tanto, crear dos sistemas distintos. Si esto es así, los requisitos
pierden su valor pues dejan de cumplir su función (indicar qué debe hacer el
sistema). Las ambigüedades provocan interpretación por parte de la persona que
use o lea los requisitos. Por tanto, una especificación debe carecer de
ambigüedades.

8
 Claridad.- Se entiende claramente lo que está especificado.

• Para el DISEÑO:

 Corrección.- El diseño no debe contener errores. Los errores de corrección se


pueden referir a dos aspectos. Defectos de “escritura”, es decir, defectos en el uso
de la notación de diseño empleada (el diseño contiene detalles prohibidos por la
notación). Defectos con respecto a los requisitos: el diseño no realiza lo que el
requisito establece. Hablando apropiadamente, los primeros son los puros
defectos de corrección, mientras que los segundos son defectos de validez.
 Compleción.- El diseño debe estar completo. Ya sea que diseña todo el sistema
marcado por los requisitos; ya sea no diseñando ninguna parte no indicada en los
requisitos. De nuevo, nada falta, nada sobra.
 Consistencia.- Al igual que en los requisitos, el diseño debe ser consistente entre
todas sus partes. No puede indicarse algo en una parte del diseño, y lo contrario
en otra.
 Factibilidad.- El diseño debe ser realizable. Debe poderse implementar.
 Trazabilidad.- Se debe poder navegar desde un requisito hasta el fragmento de
diseño donde éste se encuentra representado.

Código Fuente:

 Corrección.- El código no debe contener errores. Los errores de corrección se


pueden referir a dos aspectos. Defectos de “escritura”, es decir, lo que
habitualmente se conoce por “programa que no funciona”. Por ejemplo, bucles
infinitos, variable definida de un tipo pero utilizada de otro, contador que se sale de
las dimensiones de un array, etc. Defectos con respecto al diseño: el diseño no
realiza lo que el diseño establece.

De nuevo, hablando apropiadamente, los primeros son los puros defectos de corrección,
mientras que los segundos son defectos de validez. Un defecto de corrección es un
código que está mal para cualquier dominio. Un defecto de validez es un código que, en
este dominio particular (el marcado por esta necesidad de usuario, estos requisitos, y este
diseño) hace algo inapropiado. Por ejemplo, define una variable de un tipo (y se usa en el
programa con ese tipo, es decir, “a primera vista” no hay nada incorrecto en la definición
del tipo y su uso) que no es la que corresponde con el problema; o define un array de un
tamaño que no es el que se corresponde con el problema. Nótese que para detectar los
errores de validez (en cualquier producto) debe entenderse el problema que se pretende
resolver, mientras que los defectos de corrección son errores siempre, aún sin conocer el
problema que se pretende resolver.

 Compleción.- El código debe estar completo. Una vez más, nada falta ni nada
sobra (con respecto, en este caso, al diseño).
 Consistencia.- Al igual que en los requisitos y diseño, el código debe ser
consistente entre todas sus partes. No puede hacerse algo en una parte del
código, y lo contrario en otra.
 Trazabilidad.- Se debe poder navegar desde un requisito hasta el fragmento de
código donde éste se ejecute, pasando por el fragmento de diseño.

9
2.1.3 Capacidad de crecimiento
El software, al igual que la gran mayoría de productos y procesos cambia en el tiempo,
por ello debemos prever que la capacidad de un sistema deberá aumentar conforme la
carga de trabajo y la demanda de los usuarios se hace mayor, lo cual ocurre en la gran
mayoría de casos. Esto nos permite ver que se requieren técnicas de evaluación
dinámicas para poder pensar en un comportamiento adecuado del sistema en futuro.
Como se ha indicado anteriormente, a la aplicación de técnicas de evaluación dinámicas
se le denomina también prueba del software.

La Figura muestra el contexto en el que se realiza la prueba de software. Concretamente


la Prueba de software se puede definir como una actividad en la cual un sistema o uno de
sus componentes se ejecuta en circunstancias previamente especificadas (configuración
de la prueba), registrándose los resultados obtenidos. Seguidamente se realiza un
proceso de Evaluación en el que los
resultados obtenidos se comparan
con los resultados esperados para
localizar fallos en el software. Estos
fallos conducen a un proceso de
Depuración en el que es necesario
identificar la falta asociada con cada
fallo y corregirla, pudiendo dar lugar
a una nueva prueba. Como
resultado final se puede obtener una
determinada Predicción de
Fiabilidad, tal como se indicó
anteriormente, o un cierto nivel de
confianza en el software probado.

2.1.4 Consideraciones de mantenimiento.


La base del mantenimiento de cualquier máquina es el conocimiento de la estructura y
funcionalidad de la misma, la información y formato que aquí se presenta ayuda
efectivamente a lograr este propósito. Iniciaremos presentando el siguiente esquema de el
hardware típico de un computador PC. Las ligas contenidas en cada uno de los elementos
enunciados amplian la información al respecto.

Hardware

Corresponde a todas las partes físicas y tangibles de un computador, sus componentes


eléctricos, electrónicos, electromecánicos y mecánicos; contrariamente al soporte lógico
intangible que es llamado software. El término proviene del inglés y es definido por la RAE

10
como el "Conjunto de los componentes que integran la parte material de una
computadora", sin embargo, es usual que sea utilizado en una forma más amplia,
generalmente para describir componentes físicos de una tecnología, así el hardware
puede ser de un equipo militar importante, un equipo electrónico, un equipo informático o
un robot. En informática también se aplica a los periféricos de una computadora tales
como el disco duro, CD-ROM, disquetera (floppy), etc. En dicho conjunto se incluyen los
dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas,
periféricos de todo tipo y cualquier otro elemento físico involucrado.
El hardware se refiere a todos los componentes físicos (que se pueden tocar), en el caso
de una computadora personal serían: Unidades de disco, monitor, teclado, placa base, el
microprocesador, etc. En cambio, el software es intangible, existe como información,
ideas, conceptos, símbolos, se podría decir: lo que no tiene materia. Una buena metáfora
sería un libro: las tapas, hojas y la tinta son el hardware, mientras que el contenido en las
palabras, oraciones, párrafos (información) son el software. Como analogía: Una
computadora sin software sería tan inútil como un libro con páginas en blanco.

Es interesante mencionar que las primeras computadoras funcionaban en forma similar a


las actuales calculadoras, es decir, cuando se utiliza una calculadora, las decisiones
intermedias son tomadas por la persona que realiza cálculos. La computadora
propiamente dicha incluye tomas de decisiones internas, asociadas al programa que se
ejecuta. Este es uno de los aspectos importantes del trabajo de von Neumann, quien
escribió: “Existen diversos problemas importantes en la hidrodinámica, la aerodinámica, la
mecánica celeste y en otras áreas diversas…prácticamente inaccesibles para los métodos
actuales de análisis matemático abstracto, y para los cuales la capacidad de un equipo de
computación humano, o de las máquinas de computación no electrónicas existentes,
resulta por completo inadecuada. Esos problemas sólo pueden ser resueltos con
máquinas de velocidad intrínseca, la cual sólo puede ser alcanzada con procesos
electrónicos. Tal velocidad hará que resulte imposible la intervención del ser humano
inteligente durante el tiempo de trabajo de la máquina; por lo tanto será necesaria su
automatización absoluta. Los problemas son tan variados, y en muchos casos con
detalles tan impredecibles, que no sería sensato construir una máquina de un solo
propósito para un solo problema o grupo de problemas relacionados. El objetivo debe ser
un mecanismo para todo propósito. Finalmente, se requerirá una precisión considerable
(en muchos casos 10 dígitos decimales, en algunos casos incluso más). Por ello ninguna
máquina analógica que represente números por medio de cantidades físicas (como el
analizador diferencial) será aplicable; el mecanismo propuesto deberá ser estrictamente
digital (al igual que las famosas multiplicadoras de escritorio)” (Citado en “John von
Neumann y los orígenes de la computación moderna”).

Como en todas las grandes historias, aparecen los conflictos. Especialmente cuando
existen derechos de patentes de por medio. William Aspray escribió: “No obstante,
durante los dos años siguientes el documento constituyó un punto central de tensión entre
Goldstine y von Neumann por una lado y Eckert y Mauchly por el otro; ese desacuerdo
produjo la ruptura de relaciones entre ellos. Existían dos temas íntimamente ligados: el
crédito intelectual de las ideas expresadas en el borrador y los derechos de autor de las
ideas presentadas en el EDVAC. Al parecer, con el transcurso del tiempo las actitudes
referidas a ambos temas se endurecieron”.

11
Circuitos integrados

La integración a gran escala presenta varias ventajas; una de ellas es la reducción de


costos de fabricación, otra es la reducción de las dimensiones de una computadora. A
menor longitud, menor ha de ser el tiempo de propagación de las señales eléctricas en su
interior, y mayor ha de ser la frecuencia a la que podrá funcionar. Y a mayor frecuencia,
mayor cantidad de operaciones podrá realizar en cierto tiempo, aumentando la velocidad
de cómputo.

Los circuitos integrados se deben a Jack Kilby y a Robert Noyce. El proceso de


fabricación del circuito integrado requiere que cada capa del circuito (realizado con
materiales adecuados) sea depositada por separado sobre la superficie de una lámina de
silicio. Esta técnica es muy parecida a la forma en que se imprimen las ilustraciones en
color. Así, cada fotografía en color es descompuesta en tres colores y en negro. Las
cuatro películas se imprimen, una sobre otra, con mucha precisión, para conseguir el
efecto deseado. En el proceso de fabricación del chip se emplean capas de silicio dopado
y otros materiales en vez de tinta, pero el procedimiento de impresión es más sencillo que
el de recubrimiento con plantillas y tratamiento químico.

Las computadoras personales

La aparición de los ordenadores personales permitió la realización de la mayor red


informática mundial, Internet. Para quienes crecimos sin Internet, nos hubiese resultado
poco creíble, hace unos años, que alguien nos hubiera dicho que en el futuro podríamos
comunicarnos tan fácilmente, con todo el mundo, desde nuestra propia casa.

Uno de los primeros ordenadores personales, aparecido en 1978, fue el TI99/4A, de la


Texas Instruments. Tenía una memoria RAM de 16 Kb y disponía de una selección de 16
colores. Un empleado de la empresa expresó: “El TI99/4A se estaba vendiendo muy bien,
pero no era rentable y perdimos varios centenares de millones de dólares”. La Texas
Instruments fue una empresa creada a partir de la Geophysical Service Incorporated, que
realizaba perfilajes electrónicos del suelo, información requerida por las empresas
petroleras. En 1952 obtuvo una licencia de los Bell Laboratories para fabricar transistores
y en 1954 produjo la primera radio a transistores. En 1958, uno de sus empleados, Jack
Kilby, realiza el primer circuito integrado. En la actualidad no sólo fabrica ordenadores
personales, sino también gran parte de los chips utilizados en los distintos circuitos
electrónicos.

Algunos datos curiosos en el desarrollo de la computadora

MÁQUINAS DE CÓMPUTO – Investigación y ciencia – Ed. Prensa Científica SA

 El ENIAC (Electronic Numerical Integrator and Computer) fue el primer ordenador


electrónico conocido por el público, aunque sus comienzos estuvieron velados por
el secreto de la guerra. Se construyó entre 1943 y 1946 en el departamento de
ingeniería eléctrica de la Universidad de Pensilvania (EEUU) bajo la dirección de J.

12
Presper Eckert, Jr. y John Mauchly, para el Estado mayor del ejército
norteamericano. Utilizaba 18.000 lámparas de vacío, manejaba números
decimales de un máximo de 10 cifras, haciendo los cómputos en paralelo y su reloj
batía a 100 Khz. La programación consistía en modificar manualmente las
conexiones según el problema a resolver.
 Las estimaciones de la demanda existente para la nueva máquina que realizaron
por aquella época las grandes compañías norteamericanas de equipos de oficinas
(entre ellas IBM) no eran muy optimistas: se consideraba que bastarían dos
docenas de ejemplares para cubrir todas las necesidades de cómputo de los
sectores público y privado de los EEUU.
 Hacia 1970 se convierte en realidad el primer “microprocesador” físico: una pastilla
que puede funcionar por sí sola como unidad central de proceso (CPU). Intel y
Texas Instruments son las compañías que disputan su paternidad. Encuentra sus
primeros usos en calculadoras portátiles y relojes electrónicos.
 La calculadora científica HP-35, presentada por Hewlett-Packard en 1972, significó
el paso a la historia de la regla de cálculo. Su sucesora programable, la HP-65, fue
el inicio de la informática personal para muchos ingenieros, científicos y contables
a partir de 1974.
 En 1975 algunas firmas comerciales empezaron a ofrecer “microordenadores”,
consistentes por lo general en conjuntos de componentes que los aficionados a la
electrónica montaban por sí mismos. Inicialmente no tenían teclado ni pantalla: las
instrucciones y los datos se introducían mediante series de conmutadores situados
en un panel frontal y los resultados se obtenían leyendo otra serie de indicadores
luminosos. La memoria interna era muy reducida y la externa inexistente.
 Cuando se añadieron teclado, pantalla y dispositivos de almacenamiento externo
(cintas y discos magnéticos) fue necesario contar con programas encargados de
manejar esos recursos, lo que se conocía como “sistema operativo”. El primero de
ellos que alcanzó cierta popularidad se llamaba CP/M (Control Program/Monitor) y
había sido desarrollado por Gary Kildall en 1973.
 El tipo de máquina que hoy se conoce como PC fue inicialmente un producto
puesto a la venta por IBM en 1981. No tenía disco rígido, sino sólo una o dos
unidades de disco flexible de 5 ¼ pulgadas (que no actuaban inicialmente más que
por una cara) y ninguna capacidad gráfica en su monitor monocromo. IBM no tenía
puestas en él muchas expectativas. Su precio era algo superior a un millón de
pesetas de las de entonces.
 El sistema operativo del PC, en cambio, no fue elaborado por IBM, sino que se
encargó a una pequeña empresa de programación, entonces desconocida,
llamada Microsoft. La precipitada adaptación de CP/M que Microsoft realizó se
convirtió en la primera versión del famoso PC-DOS, MS-DOS o simplemente DOS.
El inesperado éxito comercial del PC enriqueció a Microsoft y le permitió iniciar su
vertiginosa carrera posterior en el ámbito de la programación.
 Todavía a principios de los años ochenta, la mayor parte de los particulares que
deseaban tener un acceso directo a los ordenadores lo hacían por medio de
aparatos que hoy parecen poco más que juguetes. La serie constituida por los
modelos ZX-80, ZX-81 y finalmente Spectrum, de Sinclair, tuvo especial
aceptación. Las ventas mundiales fueron tales que la reina de Inglaterra concedió
el título de Sir a Clive Sinclair, su promotor, por el impulso que supusieron para las
exportaciones británicas.

13
El funcionamiento de un computador es en principio bastante sencillo. El computador trae
las instrucciones y los datos de la memoria. Se ejecutan las instrucciones, se almacenan
los datos y se va a por la siguiente instrucción. Este procedimiento se repite
continuamente, hasta que se apaga la computadora. Los programas de ordenador son
simplemente largas listas de instrucciones que debe ejecutar el computador, a veces con
tablas de datos. Muchos programas de computador contienen millones de instrucciones
que se ejecutan a gran velocidad; un computador personal moderno (en el año 2003)
puede ejecutar de 2000 a 3000 millones de instrucciones por segundo. Las capacidades
extraordinarias que tienen los computadores no se deben a su habilidad para ejecutar
instrucciones complejas. Los computadores ejecutan millones de instrucciones simples
diseñadas por programadores. Hay programadores que desarrollan grupos de
instrucciones para hacer tareas comunes (por ejemplo, dibujar un punto en la pantalla) y
luego ponen dichos grupos de instrucciones a disposición de otros programadores para
que estos elaboren funciones o tareas más complejas.

2.1.5 Desarrollo de especificaciones de hardware

Monitor

El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una


interfaz, muestra los resultados del procesamiento de una computadora. Hay
diferentes tipos de monitores, los clásicos de tubo de rayos catódicos (o CRT) y los de
pantalla plana, los de pantalla de cristal líquido (o LCD). Actualmente se usan más
estas últimas, ya que mejoran el rendimiento de la computadora y a la hora de trabajar
con ellos se daña menos la salud del usuario.

Teclado

Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en


pantalla o teclados láser), utilizado para la introducción de órdenes y datos en una
computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que
se utilizaron como los teclados de los primeros ordenadores y dispositivos de
almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente
hay una miríada de formas, se suelen clasificar principalmente por la distribución de
teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los
dispositivos y fabricantes (incluso para teclados árabes y japoneses).

Ratón

El ratón (del inglés, pronunciado [ˈmaʊs]) es un periférico de computadora de uso


manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se
utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos

14
dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a
través de un puntero o flecha en el monitor. Anteriormente, la información del
desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la
cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona
a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la
que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo por ejemplo es
inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar
el ratón debe ser opaca, una superficie que no genere un reflejo.

Impresora

Una impresora es un periférico de computadora que permite producir una copia


permanente de textos o gráficos de documentos almacenados en formato electrónico,
imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o
transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son
usadas como periféricos, y están permanentemente unidas a la computadora por un
cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno
(típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en
papel algún documento para cualquier usuario de la red. También hay impresoras
multifuncionales que aparte de sus funciones de impresora funcionan como fotocopiadora
y escáner.

Escáner

En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para
convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital.

Disco duro

El disco duro es un sistema de grabación magnética digital, es donde


en la mayoría de los casos reside el Sistema operativo de la
computadora. En los discos duros se almacenan los datos del usuario.
En él encontramos dentro de la carcasa una serie de platos metálicos
apilados girando a gran velocidad. Sobre estos platos se sitúan los
cabezales encargados de leer o escribir los impulsos magnéticos. En
una nueva generación están los discos duros de estado sólido, que
llevan el principio de las memorias USB.

Altavoces

Los altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales
como música, sonidos de errores, conferencias, etc.

15
Etimología de la palabra ordenador

La palabra ordenador proviene del francés ordinateur, que a su vez procede de


ordonnateur (el que da órdenes). Fue introducida por IBM en Francia en 1954 por
cuestiones de marketing. En 1984, académicos franceses reconocieron en el debate "Les
jeunes, la technique et nous" que el uso de este sustantivo es incorrecto porque la función
de un PC es procesar datos, no dar órdenes.
El uso de la palabra ordinateur se ha exportado a algunos idiomas de la península Ibérica,
como el castellano, el catalán y el vascuence. El resto de idiomas europeos, entre los que
se incluye el portugués, el alemán y el holandés, utilizan derivados del término computare.

Tipos de computadores

 Computadora portátil de
 Computador analógico escritorio
 Supercomputadora  Computadora portátil
 Computadora central  Tablet PC
 Minicomputadora  Subportátil
 Microcomputadora  PC Ultra Móvil
 Computadora de escritorio  PDA
 Computador personal  Smartphone
 Computadora doméstica  Cliente ligero
 Multiseat  Sistema empotrado

Componentes y periféricos

Componentes principales

 Tarjeta madre
 CPU o microprocesador
 BIOS
 Memoria RAM, memoria ROM
 Bus
 Entrada/salida

Periféricos

 Teclado
 Ratón, touchpad, lápiz óptico, pantalla táctil, Tableta digitalizadora
 Monitor
 Impresora

16
 Tarjeta de sonido
 Tarjeta de video
 Disco duro, diskette, CD-ROM, DVD

Otros

 Carcasa
 Puerto serial
 Puerto paralelo
 PS/2
 USB
 Firewire
 Tarjeta de red
 PCI

2.1.6 Pruebas de Rendimiento (Benchmark)

Las pruebas de rendimiento están estandarizadas para medir como los diferentes
procesadores ejecutan específicos tipos de aplicaciones.

Típicamente las pruebas de rendimiento miden el desempeño en tareas tales como:

 Productividad
 Internet
 Codificación de Video y proyección de imagen
 Juegos
 Cómputo Intensivo

Hay cuatro categorías generales de pruebas de comparación :

 Pruebas aplicaciones-base (application-based) las ejecuta y las cronometra.


 Pruebas playback (playback test), las cuales usan llamadas al sistema durante
actividades especificas de una aplicación(Ej.: Llamados a gráficos o uso del disco)
y las ejecuta aisladamente.
 Prueba sintética (synthetic test) , la cual enlaza actividades de la aplicación en
subsistemas específicos.
 Prueba de inspección (inspection tests), la cual no intenta imitar la actividad de la
aplicación, sino que las ejecuta directamente en los subsistemas específicos.

Los test de aplicaciones base entregan la mejor forma de medir el rendimiento completo
de el sistema en el mundo real.
El programa Winstone de Zdnet, ejecuta mas de una docena de las aplicaciones mas
populares en el ambiente Windows, es un ejemplo de este tipo de comparadores.
Donde sea factible la tecnología playback le da la manera mas real de medir subsistemas
individuales en aislación.

17
El programa WinBench de ZDnet utiliza la tecnología playback para probar gráficos, Cd-
rom y subsistemas de disco duro, también corre cientos de otras pruebas en áreas
especificas del computador.
Los test Synthetic continúan en el estado de medición del rendimiento es por eso que
winbench usa las pruebas de procesadores.
Los test de inspección tienen su lugar verificando el comportamiento libre de fallas y
midiendo rendimiento operación por operación, por esto se incluye el test de inspección
en el winbench.

Dhrystone

Dhrystone es una medida de rendimiento de la CPU en entero, expresado en Millones de


instrucciones por segundo(MIPS).
El Dhrystone benchmark es ampliamente usado en la industria de las computadoras como
una medida de rendimiento, Wintune (programa benchmark) usa la versión modificada del
Dhrystone que mantiene sus datos en el almacenador del programa. Esto permite al
benchmarks trabajar apropiadamente en múltiple threads en Windows NT.
El Dhrystone estándar , fue originalmente diseñado para un único ambiente (single-
threaded), manteniendo alguno de sus datos en variables estáticas globales.
El Dhrystone es un benchmark sintético, diseñado para contener ejemplos representativos
de las operaciones normalmente requeridas por las aplicaciones. Estas no calculan el
resultado de ningún tipo, pero hacen enlaces de complicadas secuencias de instrucciones
usadas por las aplicaciones.
El resultado del Dhrystone es determinado por el tiempo que toma la medición para
ejecutar esta secuencia de instrucciones .
La aritmética del entero simple, decisiones lógicas, y accesos de memoria son las
actividades dominantes de la CPU en la mayoría de los programas Windows.
El Dhrystone benchmark hace un uso intensivo de estas áreas. Por lo tanto el Dhrystone
no tiene suficiente código de programa o acceso suficiente a las locaciones de memoria
para simular la actividad de la mayoría de los programas reales.
Su lugar de trabajo de código y datos puede generalmente ser mantenido en el cache de
la CPU, con lo cual resulta con un alto rendimiento.
Desde que el Dhrystone no ofrece una buena indicación del rendimiento de memoria,
Wintune tiene un set separado de prueba de memoria.

Whetstone

Whetstone es una medida de rendimiento de la CPU en punto flotante, expresado en


Millones de operaciones de punto flotante por segundo (MFLOPS).
El Whetstone benchmark es ampliamente usado en la industria de la computación como
una medida de rendimiento, Wintune usa una versión modificada del Whetstone que
mantiene sus datos en el programa de almacenamiento. Esto permite al benchmarks
trabajar apropiadamente en múltiples threads en Windows NT.
El Whetstone estándar, fue originalmente diseñado para un ambiente único, manteniendo
alguno de sus datos en variables estáticas globales .

18
La aritmética del punto flotante es la mas significativa en programas que requieren FPU .
Estos son en su mayoría ingeniería científica, de estadísticas, y programas de ayuda de
diseño en computación. Es también un pequeño componente en hoja de cálculo, dibujo y
pintado de programas. (Aunque la hoja de calculo trabaja con números también tiene una
mejor presentación en pantalla.) Los programas procesadores de texto típicamente no
hacen ningún computo en punto flotante. El Whetstone hace mucha aritmética del punto
flotante un poco de acceso de memoria, y un poco la aritmética del entero.

Usando el rendimiento para elegir el sistema correcto

¿Porqué considerar el Rendimiento?

Juzgar el rendimiento de un sistema cuando se están tomando decisiones de compra es


algo crítico a fin de retardar la obsolescencia y proteger su inversión.

Ud. quiere obtener el máximo en la compra de su sistema. Parte de esto consiste en


asegurarse que el sistema que elige le permite hacer lo que desea durante toda la vida
del sistema. Esto significa que no solo va a gestionar el software de hoy sino que dispone
de los recursos necesarios para ejecutar los mas complejos programas del día de
mañana.
Tal como se muestra en el diagrama de más arriba, para cualquier punto determinado en
el tiempo se encuentra disponible una gama de procesadores-- aquellos que ofrecen el
máximo rendimiento posible y aquellos que ofrecen un mínimo nivel de rendimiento. Las
flechas indican que comprando el de mayor rendimiento se obtiene una vida útil más
larga.
Es importante evaluar a una serie de aspectos relativos al rendimiento cuando se han de
tomar decisiones de compra.

Factores del rendimiento de una computadora

El rendimiento global que puede Vd. obtener de su PC depende de cómo cada uno de sus
componentes trabajan juntos para realizar una tarea. El efecto de cada componente

19
individual puede variar dependiendo de en cuanto está interviniendo en ejecutar una
aplicación particular. Como se muestra más abajo, el 54% del rendimiento del sistema
depende de su procesador , o CPU, cuando se ejecutan aplicaciones Windows típicas.
Otros componentes tales como memoria, vídeo y disco también juegan un papel. Una
"conexión débil" en el sistema puede reducir significativamente la velocidad y el tiempo de
respuesta que Vd. experimente.

Los porcentajes representan la utilización de los componentes cuando se ejecutan


aplicaciones Windows* típicas

Por tanto, cuando elija un sistema, debe de empezar Vd. buscando cual es el procesador
que le ofrece el mejor rendimiento para su software, a un precio razonable. Entonces
puede Vd. empezar a analizar los otros componentes del sistema para asegurarse que se
benefician de todas las ventajas de la potencia del procesador.

¿ Qué es lo que tiene que tener en cuenta acerca del rendimiento ?

El decidir qué procesador Intel y qué sistema es el adecuado tiende a ser cada vez más
difícil dado los nuevos productos PC que están apareciendo en el mercado. Una manera
de diferenciar estos productos consiste en saber cómo su rendimiento se ve afectado con
los trabajos de los que está Vd. interesado en obtener un mejor rendimiento, a fin de
ganar tiempo de respuesta en las actividades que diariamente realiza, tales como crear un
documento o trabajar sobre el último programa multimedia. Tambien puede Vd. precisar
de un rendimiento que le posibilite la opción de ejecutar el software cada vez más
complejo de hoy dia. Saber cómo el rendimiento del procesador y el sistema se puede ver
afectado, le ayudará a realizar una elección mejor informada. Sin embargo, medir el
rendimiento no es siempre algo simple. Para tomar la decisión correcta, necesita Vd.
comprender qué es lo que está midiendo.

MHz - Rendimiento
Un error frecuente es medir el rendimiento entre PCs estableciendo la comparación entre
la velocidad del procesador en MHz o velocidad del reloj. Es algo así como utilizar RPM
para medir la velocidad de su automóvil.

20
¿Miraría Vd. el tacómetro de su automóvil, que mide RPM, para determinar si está
excediendo el límite de velocidad (y evitándose una elevada multa)?. Probablemente no,
dado que el tacómetro NO mide la velocidad del vehículo, sino que mide cuan rápido está
rotando el motor.
Así como las RPM no indican cuan rápido está circulando su automóvil, los megahertzios
no indican lo rápido que su hoja de cálculo se ejecutará. Es, por lo tanto, inadecuado
comparar cuan rápido dos PCs realizarán una tarea comparando únicamente velocidades
de reloj o megahertzios. Por ejemplo, un procesador Pentium(R) corriendo a 75
megahertzios supera fácilmente a un procesador IntelDX4(TM) a 100 megahertzios. Estas
es una de las razones por las que la industria creó las pruebas de rendimiento.

¿Qué son las pruebas comparativas?

Una prueba comparativa es un programa software que mide el rendimiento de una


computadora, o las partes que la componen, ejecutando exactamente la misma cada vez.
Estas pruebas no solamente pueden ayudarle a comprender el rendimiento de los
diferentes sistemas a comparar, sino que también pueden ayudarle a evaluar el
rendimiento de un sistema determinado bajo diferentes configuraciones hardware y
software. Cada prueba evalúa un diferente tipo de trabajo. Algunas pruebas evalúan lo
rápido que una computadora puede generar un documento. Algunas pruebas evalúan lo
rápido que se dibuja un gráfico en la pantalla. Otras evalúan cómo de rápidas se realizan
determinadas operaciones matemáticas . Algunas pruebas pueden evaluar todas esas
tareas al mismo. Para obtener resultados que tengan algún significado para Vd., use
pruebas que reflejen el uso que hace Vd. de su computadora.

 Hay dos niveles de pruebas: COMPONENTE y de SISTEMA.

Las pruebas de componente evalúan solamente partes específicas de una computadora,


tales como el procesador, el disco, la tarjeta gráfica, etc.
Las pruebas de sistema evalúan el rendimiento global del sistema.

 Hay dos tipos de pruebas: APLICACION y SINTETICAS.

Pruebas de aplicación evalúan el rendimiento usando aplicaciones reales en la forma en


que se utilizan.
Las pruebas sintéticas usan programas software creados específicamente para evaluar el
rendimiento. Ambos tipos tienen ventajas y desventajas.
Hay muchas pruebas de rendimiento diferentes disponibles hoy día, pero no todas las
pruebas han sido creadas de la misma forma. Crear una prueba requiere una
considerable experiencia e inversión. La utilidad y exactitud de cualquier prueba depende
fundamentalmente de la calidad de su implementación y las suposiciones que se hacen,
por lo que puede darse que los resultados pueden variar de una prueba a otra.
Es importante que, como hace normalmente con su software cuando se le queda
obsoleto, consiga Vd. versiones actualizadas de las pruebas.

21
Las pruebas comparativas modernas
Como medir el rendimiento de los PC de hoy: La tecnología actual suministra rápidos
procesadores de 32-bits, mejor memoria, y subsistemas mejorados de display. Estos
avances han coincidido con nuevos sistemas operativos, aplicaciones y características, lo
que da como resultado una continuada necesidad de pruebas comparativas modernas
para medir adecuadamente el rendimiento de los PCs de hoy y mañana.
Cuando se compra un PC, es crítico incorporar a su proceso de evaluación métodos
actualizados para obtener el rendimiento. Esto se debe a que pruebas obsoletas basadas
en antiguos entornos hardware y software, no pueden decirle todo lo que Vd. necesita
saber.

Ante todo, los procesadores y las plataformas son cada vez más sofisticados . . .

Al mismo tiempo, el software continua mejorando en características y prestaciones . . .

El resultado: una continua necesidad de nuevas pruebas comparativas para medir el


rendimiento.

Pruebas como Dhrystone y PowerMeter MIPS* podían considerarse adecuadas en los


tiempos del procesador 286 cuando los sistemas se configuraban de una forma
relativamente simple comparada con hoy dia y cuando se ejecutaban aplicaciones DOS.
Al mismo tiempo que la sofisticación ha aumentado, la industria se ha dirigido a crear
nuevos tipos y herramientas de evaluación del rendimiento a fin de poder obtener
resultados más ajustados.
Para explorar la evolución de las nuevas pruebas para PC --y el porqué son tan
importantes en su decisión de compra.

¿Porqué las antiguas pruebas pueden ser inadecuadas?

22
Ese tipo de pruebas no tienen completamente en cuenta la diferencia de rendimiento
entre el software de 16 y 32-bits, ni son capaces de testear las posibilidades globales de
las plataformas o los sistemas operativos de 32-bits de hoy dia. Dos factores contribuyen
principalmente al declive de este tipo de pruebas para medir el rendimiento. Ante todo,
hay significativas diferencias entre el software para 32-bits y 16-bits. Y los avances en el
hardware y los sistemas operativos estan creando una gama de nuevas características
del software que este tipo de pruebas antiguas sencillamente no tienen en cuenta.

Diferencias entre software de 32-bits y 16-bits


La continua evolución a sistemas operativos de 32-bits está alentando a los vendedores
de software a crear nuevas aplicaciones escritas en el modelo de programación para 32-
bits. El uso de software de 32-bits tiene implicaciones importantes para el procesador de
los PC's dado que el sistema usa el tiempo de proceso de forma diferente --y de forma
más eficaz-- cuando ejecuta aplicaciones de 32-bits.

 El software de 16-bits necesita más tiempo en gestionar todo el entorno (tal como
la gestión del segmento de memoria, por ejemplo). Esto proviene de los tiempos
de programación para el 286 y el DOS, donde solamente era posible un
direccionamiento de memoria de 64K al mismo tiempo.

 Comparativamente, el software para 32-bits típicamente precisa menos gestión de


memoria, liberando al procesador para gastar más tiempo en actividades críticas,
tales como tratamiento de instrucciones ALU y coma flotante. El gráfico muestra el
porcentaje del tiempo que el procesador ha gastado en diferentes instrucciones
para aplicaciones de 32-bits en Windows*95, así como para aplicaciones de 16-
bits en Windows 3.1.

Esto significa que todas las aplicaciones de 32-bits se ejecutan más rápidamente que
todas sus equivalentes de 16-bits, con lo que típicamente las aplicaciones de 32-bits

23
deberán de tener una significativa mejora sobre la versión para un entorno DOS de 16-
bits.

Nuevas características del Software

La mayoría de las pruebas antiguas pueden también fallar al analizar las nuevas
características ofrecidas por el software más recientes como:

 Multitarea.-La mayoría de los sistemas operativos de 32-bits dividen el tiempo de


proceso en tareas múltiples --muchas de las cuales pueden ejecutarse de forma
continuada en segundo plano-- tales como impresión o conmutar entre distintas
aplicaciones. Este tipo de trabajo en modo múltiple requiere una gran potencia de
proceso.
 Aplicaciones más grandes.- El mayor número de características de una
aplicación obligan a consumir un mayor espacio en todos los subsistemas de
memoria. Esto aumenta los requerimientos de rendimiento para discos, la memoria
y la arquitectura de la gestión de memoria.
 Incremento del tamaño de los datos.- El aumento de aplicaciones que hacen un
uso intensivo de vídeo y gráficos, así como velocidades más rápidas de red,
requiere operaciones de entrada/salida más eficaces para un ancho de banda más
alto del sistema.
 Multitarea / Multiproceso.- La multitarea tiene una mayor eficacia ejecutando
algunas aplicaciones modernas. La evaluación del rendimiento de aplicaciones
multitarea y sistemas multiprocesador requiere técnicas especiales.
 Mejor protección de memoria.- Los nuevos sistemas operativos como Windows
NT dotan al sistema de una mayor fiabilidad para aislar las aplicaciones, lo que es
por aplicaciones aislantes desde el uno al otro y el sistema operativo -- otra
característica que requiere adicional capacidad de proceso.
 Nuevos recursos del sistema.- Estos Sistemas Operativos que aparecen
incluyen nuevos Interfaces de Programación de Aplicaciones (APIs) que hacen
más fácil a los desarrolladores de software integrar las más nuevas posibilidades
en sus aplicaciones. Estas incluyen mejores gráficos 3D, protocolos de telefonía
(TAPI), y soporte de datos más complejos tales como audio y vídeo, que precisan
de una mayor potencia de computación.

24
2.2. HERRAMIENTAS
Todos saben que el mundo está lleno de aprovechadores, principalmente en el área de
ventas y reparación de computadoras. Saber exactamente lo que hay por dentro antes de
comprar o mandar a arreglar es esencial, pues hay muchos casos de técnicos mal
intencionados que cambian las piezas nuevas de la computadora por piezas usadas.

Además de eso, este programa sirve para señalar la capacidad de la computadora, por
ejemplo, en caso de que quieras introducir más tarjeta de memoria, puedes saber si tiene
slots suficientes apenas consultando las informaciones suministradas por Speccy. Las
informaciones suministradas por la aplicación abarcan: Sistema Operativo, procesador,
Memoria RAM, tarjeta madre, tarjeta de video, disco duro, drives ópticos y tarjeta de
sonido.

Informaciones

Los datos colectados por Speccy son mostrados en categorías, de esta forma, basta
escoger el ítem que deseas verificar y hacer clic sobre él. Todo está organizado en listas,
de esta manera es mucho más fácil encontrar las informaciones que buscas, tomando en
cuenta que las divisiones temáticas te auxilian en tu lectura.

25
2.2.1 Familia de hardware de la Computadora Personal
de IBM
El primer IBM PC fue lanzado el 12 de agosto de 1981. Aunque no era barato, con un
precio base de USD 1.565, era económico para las empresas. Sin embargo, no fueron los
departamentos de cómputo de las empresas los responsables de comprarlo, sino una
serie de administradores de rango medio que vieron el potencial de la PC cuando se portó
la hoja de cálculo VisiCalc. Confiando en el prestigio del nombre IBM, empezaron a
comprar máquinas con sus propios presupuestos para hacer los cálculos que habían
aprendido en las escuelas de negocios.
Muchos años más tarde, durante el segundo trimestre de 2005, la compañía china Lenovo
Group se aseguró los derechos para producir computadoras personales con la marca
IBM. Este movimiento refleja la actual falta de interés de la compañía por los
computadoras personales, en favor del mercado de los servidores y de la prestación de
servicios de consultoría de negocios y mercados de servicios IT.

Modelos IBM PC

La PC original tenía una versión de BASIC en ROM. La tarjeta de vídeo CGA (Color
Graphics Adapter) podía usar una TV estándar como pantalla. El dispositivo de
almacenamiento estándar fue la cinta de cassette. Una unidad de disco flexible estaba
disponible como opción extra; no estaba disponible el disco duro. Sólo tenía cinco ranuras
de expansión; el máximo de memoria usando partes de IBM fue 256 K, 64 en la tarjeta
principal y tres tarjetas de expansión de 64 K. El procesador fue un Intel 8088 corriendo a
4.77 MHz. IBM lo vendió en configuraciones con 16 K y 64 K de RAM preinstaladas.
La PC original fracasó estrepitosamente en el mercado casero, pero fue extensamente
usada en los negocios. La PC XT fue una máquina mejorada diseñada para uso en los
negocios. Tenía 8 ranuras de expansión y un disco duro de 10 megabytes (ST-412).
Podía tomar 256 K de memoria en la tarjeta principal. Fue vendido con un MDA
[Monochrome Display Adapter - Adaptador de Pantalla Monocromática-]. El procesador
aún era un Intel 8088 de 4.77 MHz y el bus de expansión de 8-bit ISA con arquitectura
bus XT
El PC AT utilizó un procesador Intel 80286, originalmente a 6 MHz y después a 8MHz.
Tenía un bus ISA de 16-bit y unidad de disco duro de 20MB. IBM hizo algunos intentos en
el mercado con una máquina multi-usuario, pero la vendió principalmente como una PC
más rápida para los usuarios. IBM Convertible. IBM Portable. IBM PCjr. Los modelos de
su segunda generación, el Personal System/2 (PS/2), son conocidos por sus números de
modelo: Model 25, Model 30. Dentro de cada serie, los modelos son también
normalmente referenciados por la velocidad del reloj de su CPU. Todas las computadoras
personales IBM son, en general, compatibles desde el punto de vista del software, pero
no todos los programas funcionarán en todas las máquinas. Algunos programas son
sensibles al tiempo para una clase de velocidad particular. Los programas viejos no
aprovecharán novedades como estándares de pantalla de alta resolución o instrucciones
extendidas de procesamiento.

26
Tecnología Electrónica

La tarjeta principal en una IBM PC se denomina placa base. Ésta lleva la CPU y la
memoria, y tiene un bus con ranuras para tarjetas de expansión. El bus usado en el PC
original se hizo muy popular, y fue llamado ISA. Está hasta el momento en uso en
computadoras para el uso industrial. Después, requerimientos de alta velocidad y más
capacidad forzó el desarrollo de nuevas versiones. El EISA fue desarrollado como un
retrospectivo estándar compatible, pero debido a la alta complejidad y desempeño medio
no tuvo éxito. En cambio, las más especializadas PCI o AGP son ahora usadas para
tarjetas de expansión. La placa base está conectada por cables a dispositivos de
almacenamiento interno tal como disco duros, disco flexible y unidad de CD-ROM. Estos
tienden a ser hechos en tamaños estándar, tal como 3.5" (88.9 mm) y 5.25" (133.4 mm)
de ancho, con bahías fijas estándar. La caja también contiene una unidad de suministro
de energía (PSU) el cual es o un AT o ATX el tamaño estándar. Los PC basadas en un
Intel 8086 y 8088 requieren tarjetas EMS (memoria expandida) para trabajar con más que
un megabyte de memoria. El IBM PC AT original usó un procesador Intel 80286 el cual
puede acceder hasta 16 megabytes de memoria (aunque aplicaciones MS-DOS estándar
no pueden usar más de un megabyte sin EMS). Computadoras basadas en Intel 80286
corriendo bajo OS/2 pueden trabajar con la memoria máxima.

Teclado

El teclado original del IBM PC de 1981 fue muy criticado por mecanógrafos por su
colocación no estándar del Retorno y de la tecla Shift izquierda. En 1984, IBM corrigió
esto en su teclado AT, pero acortó la tecla de retroceso, haciéndola más difícil de
alcanzar. En 1987, introdujo su teclado mejorado, que relocalizaba todas las teclas de
función y situaba la tecla Control en un lugar torpe para el tacto de los mecanógrafos. La
tecla de escape se movilizó al lado opuesto del teclado. Un "IBM PC compatible" puede
tener un teclado que no reconozca cada combinación de teclas que una verdadera IBM
PC hacía; por ejemplo las teclas del cursor con shift. Además, algunos vendedores de
"compatibles" usaban interfaces de teclado propietarias, para imposibilitar reemplazar al
modelo de teclado original. Véase también: Teclado de ordenador.

Juego de caracteres

Para el IBM PC original se utilizó como base el alfabeto ASCII de 7 bits, pero se extendió
a 8 bits agregando 128 códigos extra que no seguían ningún estándar y sólo eran
utilizados por el IBM PC. Este juego de caracteres no contaba con todos los necesarios
para su uso en idiomas distintos del inglés, lo que hizo que se crearan variantes del juego
original en el que se sustituían los 128 caracteres extra para adaptarse al idioma
correspondiente. Estas variantes se llamaron páginas de códigos (del inglés code pages).
Hoy en día estos códigos están obsoletos, habiendo sido reemplazados por esquemas
mucho mejores, como el ISO-8859-1 o el Unicode.

27
Medios de almacenamiento

El IBM PC modelo 5150 original tenía una unidad de cassette como medio de
almacenamiento estándar. Pero incluso para 1981 esto era obsoleto, por lo que casi
ninguna PC salió de fábrica sin una unidad de disco flexible. El PC de 1981 tenía una o
dos unidades de disco flexible de 5 1/4" a 360 kilobytes de un solo lado, de doble
densidad.
En 1984, IBM introdujo la unidad de disco flexible de doble cara de 1.2 megabytes con su
modelo AT. Aunque se usó frecuentemente como almacenamiento de copia de seguridad
[backup], el disco flexible de alta densidad no fue muy utilizado para intercambiar datos.
En 1986, IBM introdujo el micro disco flexible de 3.5" y doble densidad con una capacidad
de 720 kilobytes en su computadora laptop Convertible. Con la llegada de la línea PS/2 se
introdujo la versión de alta densidad de 1.44 megabytes. Estas unidades de disco podrían
instalarse también en los modelos anteriores de PC.
El primer IBM PC que incluyó un disco duro fijo fue el XT (ST-412).

Software

Todos los IBM PC contenían una BIOS, que es una pieza de software relativamente
pequeña almacenada en ROM, y que se utiliza principalmente para arrancar el sistema
(bootstraping en inglés). Además, el IBM PC venía con BASIC en ROM. Luego, tanto
BASIC como BASICA y GW-BASIC se distribuyeron en discos flexibles, pero no dejaron
de invocar y referenciar rutinas en la ROM de la PC.

28
CONCLUCIONES

En esta unidad se da a conocer las técnicas y aspectos que debemos tomar en cuenta
para la adquisición de un equipo de computo o bien para el remplazo de este, ya que
tenemos que adaptarlo a las necesidades del cliente e incluso de nosotros mismos

29
BIBLIOGRAFIA

 S. Dormido, M. A. Canto, J. Mira y A. Delgado. "Estructura y tecnología de


computadores II"
Editorial Sanz y Torres, 1994
 HAYES, J. P. "Computer Architecture and Organization (Second Edition)"
McGraw-Hill, New York (1988).
 Aurelio Mejía Mesa - Guía práctica para manejar y reparar el computador Líneas
de interrupción (IRQ) books.google.com.mx/books?isbn=9589744605, 2004
 Leonard L. Tripp, Chair, Professional Practices Committee, Guide to the Software
Engineering Body of Knowledge, IEEE Computer Society (2001-2003)
 http://www.bajaki.com/download/speccy.htm

30

You might also like