Professional Documents
Culture Documents
COMPUTO
SEC: 5NV1
INVESTIGACION
2° UNIDAD
1
INDICE
2.1. Evaluación del hardware……………………………………………………………3
2.2 Herramientas…………………………………………………………………………25
CONCLUSIONES…………………………………………………………………...........29
BIBLIOGRAFIA…………………………………………………………………………….30
2
2.1 EVALUACIÓN DE HARDWARE
Es frecuente que una empresa adquiera un equipo de computo que al poco tiempo no
cubre ya sus requerimientos de procesamiento de dates. Esto es producto,
fundamentalmente, de no haber realizado un estudio a fondo de Io que se requería de
dicho equipo y las necesidades reales de la empresa. Este aspecto ha prevalecido
durante décadas, porque muchas empresas no entienden que adquirí el equipo de
computo. mas que resolverles de manera inmediata un problema, automáticamente les
implica otros. Muchos directivos no son advertidos por su personal técnico acerca de que
la inversión en tecnología no solo esta en las herramientas
que se adquieren, sino en la capacitación para saberlas utilizar de acuerdo con sus
necesidades reales de automatización. Por eso sucede que:
• Gran cantidad del equipo resulta incompatible con las nuevas maquinas, o no es posible
intercambiar información o hacer respaldos con otras instalaciones.
• EI equipo se satura cuando entra en producción por no haber analizado con certeza las
cargas de trabajo ni los volúmenes de información a los cuales iba a ser sometido.
Durante el desarrollo de software, las distintas técnicas de evaluación son las principales
estrategias para detectar faltas y fallos. Por tanto, son métodos de control de la calidad.
En términos generales, se pueden distinguir dos tipos de evaluaciones durante el proceso
de desarrollo: Verificaciones y Validaciones. Según el IEEE Std 729-1983 éstas se
definen como:
3
Verificación: Proceso de determinar si los productos de una determinada fase del
desarrollo de software cumplen o no los requisitos establecidos durante la fase
anterior.
Validación: Proceso de evaluación del software al final del proceso de desarrollo
para asegurar el cumplimiento de las necesidades del cliente.
Ambas tareas (detección y correción) pueden realizarse por una misma persona o por
personas distintas según la organización y el modelo de desarrollo sobre el que se esté
aplicando la técnica. Tal como se ha indicado anteriormente, es necesario evaluar el
sistema software a medida que se va avanzando en el proceso de desarrollo de dicho
sistema. De esta forma se intenta que la detección de defectos se haga lo antes posible y
tenga menor impacto en el tiempo y esfuerzo de desarrollo.
4
Esta idea se muestra en la Figura 1 en la que como se observa la evaluación estática se
realiza en el mismo sentido en que se van generando los productos del desarrollo de
software, mientras que la dinámica se realiza en sentido inverso.
Por tanto, las actividades de evaluación estática constituyen los puntos de control o
revisión utilizados por los gestores de proyectos y las organizaciones para evaluar tanto la
calidad de los productos como el progreso del proyecto. Es decir, las actividades de
5
revisión son una herramienta de control para el producto software.
Una vez realizadas estas revisiones se procede con la evaluación dinámica, que como ya
se ha indicado se realiza sobre el código. Aunque más adelate se estudiarán en detalle
los distintos tipos de pruebas dinámicas, se puede indicar que la primera prueba a realizar
es la denominada Prueba de Unidad en la que se buscan errores en los componentes
más pequeños del programa (módulos).
Estos errores se detectan cuando dichos componentes no actúan como se ha
especificado en el diseño detallado. Seguidamente, se prueban los distintos componentes
que constituyen el software en la denominada Prueba de Integración. Esta prueba está
orientada a detectar fallos provocados por una incorrecta comunicación entre módulos (no
acorde con la especificación de diseño de alto nivel). El software se puede ejecutar en un
contexto hardware concreto, por lo que la Prueba de Sistema es la que se encarga de
buscar errores en este ensamblaje sofware/hardware. Finalmente, el usuario ha de
realizar la Prueba de Aceptación final sobre el sistema completo.
Nótese cómo la evaluación de los productos software mediante revisiones permite contar
con una estimación temprana de la calidad con que se está llevando a cabo el desarrollo.
Esto es así porque las revisiones encuentran faltas, pero la cantidad de faltas encontradas
en un producto dan una idea de las faltas que aún pueden quedar así como de la calidad
del trabajo de desarrollo de dicho producto. La experiencia parece indicar que donde hay
un defecto hay otros. Es decir, la probabilidad de descubrir nuevos defectos en una parte
del software es proporcional al número de defectos ya descubiertos. Es en este principio
sobre el que se basan los métodos de estimación de los defectos que quedan en un
software; ya sean los modelos de fiabilidad (que utilizan como entrada los fallos
encontrados durante las pruebas) ya sean los métodos de estimación del contenido de
faltas (que utilizan como entrada las faltas encontradas mediante revisiones). No
obstante, es gracias a la evaluación estática que se puede realizar esta estimación de la
calidad del software de manera temprana, puesto que los modelos de fiabilidad requieren
el código ya desarrollado para dar una indicación de los posibles fallos que quedan
remanentes en dicho código.
6
bien, etc.) y deben tomarse acciones que remedien o palien estos problemas antes
de que afecten al resultad final del proyecto.
La experiencia demuestra que entre el 30% y el 70% de los defectos, de diseño y código
son detectados por las técnicas estáticas. Esto supone un gran ahorro, pues la corrección
es más fácil y menos costosa durante la evaluación estática que durante la dinámica.
Nótese que cuando durante la evaluación dinámica del sistema se detecta una fallo en un
programa, lo que se detecta es el fallo, no la falta que lo provoca. Es decir, tras la
detección del fallo, se requiere una labor de localización en el programa de la falta que
provocó el fallo. Sin embargo, con las técnicas estáticas, lo que se detecta son
directamente faltas. Por tanto, una vez detectada, se puede pasar a la fase de corrección.
Es decir, desaparece la tarea de localización de la falta. Esto significa, que las técnicas
estáticas son más baratas por falta que las dinámicas.
Las revisiones también proporcionan beneficios más generales. Entre éstos se pueden
citar los siguientes:
7
Proporciona aprendizaje, retroalimentación y prevención
Forma y educa a los participantes
Los defectos que se buscan al evaluar estáticamente los productos software son:
8
Claridad.- Se entiende claramente lo que está especificado.
• Para el DISEÑO:
Código Fuente:
De nuevo, hablando apropiadamente, los primeros son los puros defectos de corrección,
mientras que los segundos son defectos de validez. Un defecto de corrección es un
código que está mal para cualquier dominio. Un defecto de validez es un código que, en
este dominio particular (el marcado por esta necesidad de usuario, estos requisitos, y este
diseño) hace algo inapropiado. Por ejemplo, define una variable de un tipo (y se usa en el
programa con ese tipo, es decir, “a primera vista” no hay nada incorrecto en la definición
del tipo y su uso) que no es la que corresponde con el problema; o define un array de un
tamaño que no es el que se corresponde con el problema. Nótese que para detectar los
errores de validez (en cualquier producto) debe entenderse el problema que se pretende
resolver, mientras que los defectos de corrección son errores siempre, aún sin conocer el
problema que se pretende resolver.
Compleción.- El código debe estar completo. Una vez más, nada falta ni nada
sobra (con respecto, en este caso, al diseño).
Consistencia.- Al igual que en los requisitos y diseño, el código debe ser
consistente entre todas sus partes. No puede hacerse algo en una parte del
código, y lo contrario en otra.
Trazabilidad.- Se debe poder navegar desde un requisito hasta el fragmento de
código donde éste se ejecute, pasando por el fragmento de diseño.
9
2.1.3 Capacidad de crecimiento
El software, al igual que la gran mayoría de productos y procesos cambia en el tiempo,
por ello debemos prever que la capacidad de un sistema deberá aumentar conforme la
carga de trabajo y la demanda de los usuarios se hace mayor, lo cual ocurre en la gran
mayoría de casos. Esto nos permite ver que se requieren técnicas de evaluación
dinámicas para poder pensar en un comportamiento adecuado del sistema en futuro.
Como se ha indicado anteriormente, a la aplicación de técnicas de evaluación dinámicas
se le denomina también prueba del software.
Hardware
10
como el "Conjunto de los componentes que integran la parte material de una
computadora", sin embargo, es usual que sea utilizado en una forma más amplia,
generalmente para describir componentes físicos de una tecnología, así el hardware
puede ser de un equipo militar importante, un equipo electrónico, un equipo informático o
un robot. En informática también se aplica a los periféricos de una computadora tales
como el disco duro, CD-ROM, disquetera (floppy), etc. En dicho conjunto se incluyen los
dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas,
periféricos de todo tipo y cualquier otro elemento físico involucrado.
El hardware se refiere a todos los componentes físicos (que se pueden tocar), en el caso
de una computadora personal serían: Unidades de disco, monitor, teclado, placa base, el
microprocesador, etc. En cambio, el software es intangible, existe como información,
ideas, conceptos, símbolos, se podría decir: lo que no tiene materia. Una buena metáfora
sería un libro: las tapas, hojas y la tinta son el hardware, mientras que el contenido en las
palabras, oraciones, párrafos (información) son el software. Como analogía: Una
computadora sin software sería tan inútil como un libro con páginas en blanco.
Como en todas las grandes historias, aparecen los conflictos. Especialmente cuando
existen derechos de patentes de por medio. William Aspray escribió: “No obstante,
durante los dos años siguientes el documento constituyó un punto central de tensión entre
Goldstine y von Neumann por una lado y Eckert y Mauchly por el otro; ese desacuerdo
produjo la ruptura de relaciones entre ellos. Existían dos temas íntimamente ligados: el
crédito intelectual de las ideas expresadas en el borrador y los derechos de autor de las
ideas presentadas en el EDVAC. Al parecer, con el transcurso del tiempo las actitudes
referidas a ambos temas se endurecieron”.
11
Circuitos integrados
12
Presper Eckert, Jr. y John Mauchly, para el Estado mayor del ejército
norteamericano. Utilizaba 18.000 lámparas de vacío, manejaba números
decimales de un máximo de 10 cifras, haciendo los cómputos en paralelo y su reloj
batía a 100 Khz. La programación consistía en modificar manualmente las
conexiones según el problema a resolver.
Las estimaciones de la demanda existente para la nueva máquina que realizaron
por aquella época las grandes compañías norteamericanas de equipos de oficinas
(entre ellas IBM) no eran muy optimistas: se consideraba que bastarían dos
docenas de ejemplares para cubrir todas las necesidades de cómputo de los
sectores público y privado de los EEUU.
Hacia 1970 se convierte en realidad el primer “microprocesador” físico: una pastilla
que puede funcionar por sí sola como unidad central de proceso (CPU). Intel y
Texas Instruments son las compañías que disputan su paternidad. Encuentra sus
primeros usos en calculadoras portátiles y relojes electrónicos.
La calculadora científica HP-35, presentada por Hewlett-Packard en 1972, significó
el paso a la historia de la regla de cálculo. Su sucesora programable, la HP-65, fue
el inicio de la informática personal para muchos ingenieros, científicos y contables
a partir de 1974.
En 1975 algunas firmas comerciales empezaron a ofrecer “microordenadores”,
consistentes por lo general en conjuntos de componentes que los aficionados a la
electrónica montaban por sí mismos. Inicialmente no tenían teclado ni pantalla: las
instrucciones y los datos se introducían mediante series de conmutadores situados
en un panel frontal y los resultados se obtenían leyendo otra serie de indicadores
luminosos. La memoria interna era muy reducida y la externa inexistente.
Cuando se añadieron teclado, pantalla y dispositivos de almacenamiento externo
(cintas y discos magnéticos) fue necesario contar con programas encargados de
manejar esos recursos, lo que se conocía como “sistema operativo”. El primero de
ellos que alcanzó cierta popularidad se llamaba CP/M (Control Program/Monitor) y
había sido desarrollado por Gary Kildall en 1973.
El tipo de máquina que hoy se conoce como PC fue inicialmente un producto
puesto a la venta por IBM en 1981. No tenía disco rígido, sino sólo una o dos
unidades de disco flexible de 5 ¼ pulgadas (que no actuaban inicialmente más que
por una cara) y ninguna capacidad gráfica en su monitor monocromo. IBM no tenía
puestas en él muchas expectativas. Su precio era algo superior a un millón de
pesetas de las de entonces.
El sistema operativo del PC, en cambio, no fue elaborado por IBM, sino que se
encargó a una pequeña empresa de programación, entonces desconocida,
llamada Microsoft. La precipitada adaptación de CP/M que Microsoft realizó se
convirtió en la primera versión del famoso PC-DOS, MS-DOS o simplemente DOS.
El inesperado éxito comercial del PC enriqueció a Microsoft y le permitió iniciar su
vertiginosa carrera posterior en el ámbito de la programación.
Todavía a principios de los años ochenta, la mayor parte de los particulares que
deseaban tener un acceso directo a los ordenadores lo hacían por medio de
aparatos que hoy parecen poco más que juguetes. La serie constituida por los
modelos ZX-80, ZX-81 y finalmente Spectrum, de Sinclair, tuvo especial
aceptación. Las ventas mundiales fueron tales que la reina de Inglaterra concedió
el título de Sir a Clive Sinclair, su promotor, por el impulso que supusieron para las
exportaciones británicas.
13
El funcionamiento de un computador es en principio bastante sencillo. El computador trae
las instrucciones y los datos de la memoria. Se ejecutan las instrucciones, se almacenan
los datos y se va a por la siguiente instrucción. Este procedimiento se repite
continuamente, hasta que se apaga la computadora. Los programas de ordenador son
simplemente largas listas de instrucciones que debe ejecutar el computador, a veces con
tablas de datos. Muchos programas de computador contienen millones de instrucciones
que se ejecutan a gran velocidad; un computador personal moderno (en el año 2003)
puede ejecutar de 2000 a 3000 millones de instrucciones por segundo. Las capacidades
extraordinarias que tienen los computadores no se deben a su habilidad para ejecutar
instrucciones complejas. Los computadores ejecutan millones de instrucciones simples
diseñadas por programadores. Hay programadores que desarrollan grupos de
instrucciones para hacer tareas comunes (por ejemplo, dibujar un punto en la pantalla) y
luego ponen dichos grupos de instrucciones a disposición de otros programadores para
que estos elaboren funciones o tareas más complejas.
Monitor
Teclado
Ratón
14
dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a
través de un puntero o flecha en el monitor. Anteriormente, la información del
desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la
cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona
a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la
que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo por ejemplo es
inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar
el ratón debe ser opaca, una superficie que no genere un reflejo.
Impresora
Escáner
En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para
convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital.
Disco duro
Altavoces
Los altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales
como música, sonidos de errores, conferencias, etc.
15
Etimología de la palabra ordenador
Tipos de computadores
Computadora portátil de
Computador analógico escritorio
Supercomputadora Computadora portátil
Computadora central Tablet PC
Minicomputadora Subportátil
Microcomputadora PC Ultra Móvil
Computadora de escritorio PDA
Computador personal Smartphone
Computadora doméstica Cliente ligero
Multiseat Sistema empotrado
Componentes y periféricos
Componentes principales
Tarjeta madre
CPU o microprocesador
BIOS
Memoria RAM, memoria ROM
Bus
Entrada/salida
Periféricos
Teclado
Ratón, touchpad, lápiz óptico, pantalla táctil, Tableta digitalizadora
Monitor
Impresora
16
Tarjeta de sonido
Tarjeta de video
Disco duro, diskette, CD-ROM, DVD
Otros
Carcasa
Puerto serial
Puerto paralelo
PS/2
USB
Firewire
Tarjeta de red
PCI
Las pruebas de rendimiento están estandarizadas para medir como los diferentes
procesadores ejecutan específicos tipos de aplicaciones.
Productividad
Internet
Codificación de Video y proyección de imagen
Juegos
Cómputo Intensivo
Los test de aplicaciones base entregan la mejor forma de medir el rendimiento completo
de el sistema en el mundo real.
El programa Winstone de Zdnet, ejecuta mas de una docena de las aplicaciones mas
populares en el ambiente Windows, es un ejemplo de este tipo de comparadores.
Donde sea factible la tecnología playback le da la manera mas real de medir subsistemas
individuales en aislación.
17
El programa WinBench de ZDnet utiliza la tecnología playback para probar gráficos, Cd-
rom y subsistemas de disco duro, también corre cientos de otras pruebas en áreas
especificas del computador.
Los test Synthetic continúan en el estado de medición del rendimiento es por eso que
winbench usa las pruebas de procesadores.
Los test de inspección tienen su lugar verificando el comportamiento libre de fallas y
midiendo rendimiento operación por operación, por esto se incluye el test de inspección
en el winbench.
Dhrystone
Whetstone
18
La aritmética del punto flotante es la mas significativa en programas que requieren FPU .
Estos son en su mayoría ingeniería científica, de estadísticas, y programas de ayuda de
diseño en computación. Es también un pequeño componente en hoja de cálculo, dibujo y
pintado de programas. (Aunque la hoja de calculo trabaja con números también tiene una
mejor presentación en pantalla.) Los programas procesadores de texto típicamente no
hacen ningún computo en punto flotante. El Whetstone hace mucha aritmética del punto
flotante un poco de acceso de memoria, y un poco la aritmética del entero.
El rendimiento global que puede Vd. obtener de su PC depende de cómo cada uno de sus
componentes trabajan juntos para realizar una tarea. El efecto de cada componente
19
individual puede variar dependiendo de en cuanto está interviniendo en ejecutar una
aplicación particular. Como se muestra más abajo, el 54% del rendimiento del sistema
depende de su procesador , o CPU, cuando se ejecutan aplicaciones Windows típicas.
Otros componentes tales como memoria, vídeo y disco también juegan un papel. Una
"conexión débil" en el sistema puede reducir significativamente la velocidad y el tiempo de
respuesta que Vd. experimente.
Por tanto, cuando elija un sistema, debe de empezar Vd. buscando cual es el procesador
que le ofrece el mejor rendimiento para su software, a un precio razonable. Entonces
puede Vd. empezar a analizar los otros componentes del sistema para asegurarse que se
benefician de todas las ventajas de la potencia del procesador.
El decidir qué procesador Intel y qué sistema es el adecuado tiende a ser cada vez más
difícil dado los nuevos productos PC que están apareciendo en el mercado. Una manera
de diferenciar estos productos consiste en saber cómo su rendimiento se ve afectado con
los trabajos de los que está Vd. interesado en obtener un mejor rendimiento, a fin de
ganar tiempo de respuesta en las actividades que diariamente realiza, tales como crear un
documento o trabajar sobre el último programa multimedia. Tambien puede Vd. precisar
de un rendimiento que le posibilite la opción de ejecutar el software cada vez más
complejo de hoy dia. Saber cómo el rendimiento del procesador y el sistema se puede ver
afectado, le ayudará a realizar una elección mejor informada. Sin embargo, medir el
rendimiento no es siempre algo simple. Para tomar la decisión correcta, necesita Vd.
comprender qué es lo que está midiendo.
MHz - Rendimiento
Un error frecuente es medir el rendimiento entre PCs estableciendo la comparación entre
la velocidad del procesador en MHz o velocidad del reloj. Es algo así como utilizar RPM
para medir la velocidad de su automóvil.
20
¿Miraría Vd. el tacómetro de su automóvil, que mide RPM, para determinar si está
excediendo el límite de velocidad (y evitándose una elevada multa)?. Probablemente no,
dado que el tacómetro NO mide la velocidad del vehículo, sino que mide cuan rápido está
rotando el motor.
Así como las RPM no indican cuan rápido está circulando su automóvil, los megahertzios
no indican lo rápido que su hoja de cálculo se ejecutará. Es, por lo tanto, inadecuado
comparar cuan rápido dos PCs realizarán una tarea comparando únicamente velocidades
de reloj o megahertzios. Por ejemplo, un procesador Pentium(R) corriendo a 75
megahertzios supera fácilmente a un procesador IntelDX4(TM) a 100 megahertzios. Estas
es una de las razones por las que la industria creó las pruebas de rendimiento.
21
Las pruebas comparativas modernas
Como medir el rendimiento de los PC de hoy: La tecnología actual suministra rápidos
procesadores de 32-bits, mejor memoria, y subsistemas mejorados de display. Estos
avances han coincidido con nuevos sistemas operativos, aplicaciones y características, lo
que da como resultado una continuada necesidad de pruebas comparativas modernas
para medir adecuadamente el rendimiento de los PCs de hoy y mañana.
Cuando se compra un PC, es crítico incorporar a su proceso de evaluación métodos
actualizados para obtener el rendimiento. Esto se debe a que pruebas obsoletas basadas
en antiguos entornos hardware y software, no pueden decirle todo lo que Vd. necesita
saber.
Ante todo, los procesadores y las plataformas son cada vez más sofisticados . . .
22
Ese tipo de pruebas no tienen completamente en cuenta la diferencia de rendimiento
entre el software de 16 y 32-bits, ni son capaces de testear las posibilidades globales de
las plataformas o los sistemas operativos de 32-bits de hoy dia. Dos factores contribuyen
principalmente al declive de este tipo de pruebas para medir el rendimiento. Ante todo,
hay significativas diferencias entre el software para 32-bits y 16-bits. Y los avances en el
hardware y los sistemas operativos estan creando una gama de nuevas características
del software que este tipo de pruebas antiguas sencillamente no tienen en cuenta.
El software de 16-bits necesita más tiempo en gestionar todo el entorno (tal como
la gestión del segmento de memoria, por ejemplo). Esto proviene de los tiempos
de programación para el 286 y el DOS, donde solamente era posible un
direccionamiento de memoria de 64K al mismo tiempo.
Esto significa que todas las aplicaciones de 32-bits se ejecutan más rápidamente que
todas sus equivalentes de 16-bits, con lo que típicamente las aplicaciones de 32-bits
23
deberán de tener una significativa mejora sobre la versión para un entorno DOS de 16-
bits.
La mayoría de las pruebas antiguas pueden también fallar al analizar las nuevas
características ofrecidas por el software más recientes como:
24
2.2. HERRAMIENTAS
Todos saben que el mundo está lleno de aprovechadores, principalmente en el área de
ventas y reparación de computadoras. Saber exactamente lo que hay por dentro antes de
comprar o mandar a arreglar es esencial, pues hay muchos casos de técnicos mal
intencionados que cambian las piezas nuevas de la computadora por piezas usadas.
Además de eso, este programa sirve para señalar la capacidad de la computadora, por
ejemplo, en caso de que quieras introducir más tarjeta de memoria, puedes saber si tiene
slots suficientes apenas consultando las informaciones suministradas por Speccy. Las
informaciones suministradas por la aplicación abarcan: Sistema Operativo, procesador,
Memoria RAM, tarjeta madre, tarjeta de video, disco duro, drives ópticos y tarjeta de
sonido.
Informaciones
Los datos colectados por Speccy son mostrados en categorías, de esta forma, basta
escoger el ítem que deseas verificar y hacer clic sobre él. Todo está organizado en listas,
de esta manera es mucho más fácil encontrar las informaciones que buscas, tomando en
cuenta que las divisiones temáticas te auxilian en tu lectura.
25
2.2.1 Familia de hardware de la Computadora Personal
de IBM
El primer IBM PC fue lanzado el 12 de agosto de 1981. Aunque no era barato, con un
precio base de USD 1.565, era económico para las empresas. Sin embargo, no fueron los
departamentos de cómputo de las empresas los responsables de comprarlo, sino una
serie de administradores de rango medio que vieron el potencial de la PC cuando se portó
la hoja de cálculo VisiCalc. Confiando en el prestigio del nombre IBM, empezaron a
comprar máquinas con sus propios presupuestos para hacer los cálculos que habían
aprendido en las escuelas de negocios.
Muchos años más tarde, durante el segundo trimestre de 2005, la compañía china Lenovo
Group se aseguró los derechos para producir computadoras personales con la marca
IBM. Este movimiento refleja la actual falta de interés de la compañía por los
computadoras personales, en favor del mercado de los servidores y de la prestación de
servicios de consultoría de negocios y mercados de servicios IT.
Modelos IBM PC
La PC original tenía una versión de BASIC en ROM. La tarjeta de vídeo CGA (Color
Graphics Adapter) podía usar una TV estándar como pantalla. El dispositivo de
almacenamiento estándar fue la cinta de cassette. Una unidad de disco flexible estaba
disponible como opción extra; no estaba disponible el disco duro. Sólo tenía cinco ranuras
de expansión; el máximo de memoria usando partes de IBM fue 256 K, 64 en la tarjeta
principal y tres tarjetas de expansión de 64 K. El procesador fue un Intel 8088 corriendo a
4.77 MHz. IBM lo vendió en configuraciones con 16 K y 64 K de RAM preinstaladas.
La PC original fracasó estrepitosamente en el mercado casero, pero fue extensamente
usada en los negocios. La PC XT fue una máquina mejorada diseñada para uso en los
negocios. Tenía 8 ranuras de expansión y un disco duro de 10 megabytes (ST-412).
Podía tomar 256 K de memoria en la tarjeta principal. Fue vendido con un MDA
[Monochrome Display Adapter - Adaptador de Pantalla Monocromática-]. El procesador
aún era un Intel 8088 de 4.77 MHz y el bus de expansión de 8-bit ISA con arquitectura
bus XT
El PC AT utilizó un procesador Intel 80286, originalmente a 6 MHz y después a 8MHz.
Tenía un bus ISA de 16-bit y unidad de disco duro de 20MB. IBM hizo algunos intentos en
el mercado con una máquina multi-usuario, pero la vendió principalmente como una PC
más rápida para los usuarios. IBM Convertible. IBM Portable. IBM PCjr. Los modelos de
su segunda generación, el Personal System/2 (PS/2), son conocidos por sus números de
modelo: Model 25, Model 30. Dentro de cada serie, los modelos son también
normalmente referenciados por la velocidad del reloj de su CPU. Todas las computadoras
personales IBM son, en general, compatibles desde el punto de vista del software, pero
no todos los programas funcionarán en todas las máquinas. Algunos programas son
sensibles al tiempo para una clase de velocidad particular. Los programas viejos no
aprovecharán novedades como estándares de pantalla de alta resolución o instrucciones
extendidas de procesamiento.
26
Tecnología Electrónica
La tarjeta principal en una IBM PC se denomina placa base. Ésta lleva la CPU y la
memoria, y tiene un bus con ranuras para tarjetas de expansión. El bus usado en el PC
original se hizo muy popular, y fue llamado ISA. Está hasta el momento en uso en
computadoras para el uso industrial. Después, requerimientos de alta velocidad y más
capacidad forzó el desarrollo de nuevas versiones. El EISA fue desarrollado como un
retrospectivo estándar compatible, pero debido a la alta complejidad y desempeño medio
no tuvo éxito. En cambio, las más especializadas PCI o AGP son ahora usadas para
tarjetas de expansión. La placa base está conectada por cables a dispositivos de
almacenamiento interno tal como disco duros, disco flexible y unidad de CD-ROM. Estos
tienden a ser hechos en tamaños estándar, tal como 3.5" (88.9 mm) y 5.25" (133.4 mm)
de ancho, con bahías fijas estándar. La caja también contiene una unidad de suministro
de energía (PSU) el cual es o un AT o ATX el tamaño estándar. Los PC basadas en un
Intel 8086 y 8088 requieren tarjetas EMS (memoria expandida) para trabajar con más que
un megabyte de memoria. El IBM PC AT original usó un procesador Intel 80286 el cual
puede acceder hasta 16 megabytes de memoria (aunque aplicaciones MS-DOS estándar
no pueden usar más de un megabyte sin EMS). Computadoras basadas en Intel 80286
corriendo bajo OS/2 pueden trabajar con la memoria máxima.
Teclado
El teclado original del IBM PC de 1981 fue muy criticado por mecanógrafos por su
colocación no estándar del Retorno y de la tecla Shift izquierda. En 1984, IBM corrigió
esto en su teclado AT, pero acortó la tecla de retroceso, haciéndola más difícil de
alcanzar. En 1987, introdujo su teclado mejorado, que relocalizaba todas las teclas de
función y situaba la tecla Control en un lugar torpe para el tacto de los mecanógrafos. La
tecla de escape se movilizó al lado opuesto del teclado. Un "IBM PC compatible" puede
tener un teclado que no reconozca cada combinación de teclas que una verdadera IBM
PC hacía; por ejemplo las teclas del cursor con shift. Además, algunos vendedores de
"compatibles" usaban interfaces de teclado propietarias, para imposibilitar reemplazar al
modelo de teclado original. Véase también: Teclado de ordenador.
Juego de caracteres
Para el IBM PC original se utilizó como base el alfabeto ASCII de 7 bits, pero se extendió
a 8 bits agregando 128 códigos extra que no seguían ningún estándar y sólo eran
utilizados por el IBM PC. Este juego de caracteres no contaba con todos los necesarios
para su uso en idiomas distintos del inglés, lo que hizo que se crearan variantes del juego
original en el que se sustituían los 128 caracteres extra para adaptarse al idioma
correspondiente. Estas variantes se llamaron páginas de códigos (del inglés code pages).
Hoy en día estos códigos están obsoletos, habiendo sido reemplazados por esquemas
mucho mejores, como el ISO-8859-1 o el Unicode.
27
Medios de almacenamiento
El IBM PC modelo 5150 original tenía una unidad de cassette como medio de
almacenamiento estándar. Pero incluso para 1981 esto era obsoleto, por lo que casi
ninguna PC salió de fábrica sin una unidad de disco flexible. El PC de 1981 tenía una o
dos unidades de disco flexible de 5 1/4" a 360 kilobytes de un solo lado, de doble
densidad.
En 1984, IBM introdujo la unidad de disco flexible de doble cara de 1.2 megabytes con su
modelo AT. Aunque se usó frecuentemente como almacenamiento de copia de seguridad
[backup], el disco flexible de alta densidad no fue muy utilizado para intercambiar datos.
En 1986, IBM introdujo el micro disco flexible de 3.5" y doble densidad con una capacidad
de 720 kilobytes en su computadora laptop Convertible. Con la llegada de la línea PS/2 se
introdujo la versión de alta densidad de 1.44 megabytes. Estas unidades de disco podrían
instalarse también en los modelos anteriores de PC.
El primer IBM PC que incluyó un disco duro fijo fue el XT (ST-412).
Software
Todos los IBM PC contenían una BIOS, que es una pieza de software relativamente
pequeña almacenada en ROM, y que se utiliza principalmente para arrancar el sistema
(bootstraping en inglés). Además, el IBM PC venía con BASIC en ROM. Luego, tanto
BASIC como BASICA y GW-BASIC se distribuyeron en discos flexibles, pero no dejaron
de invocar y referenciar rutinas en la ROM de la PC.
28
CONCLUCIONES
En esta unidad se da a conocer las técnicas y aspectos que debemos tomar en cuenta
para la adquisición de un equipo de computo o bien para el remplazo de este, ya que
tenemos que adaptarlo a las necesidades del cliente e incluso de nosotros mismos
29
BIBLIOGRAFIA
30