You are on page 1of 22

ORIGEN Y EVOLUCION DEL COMPUTADOR

Durante muchos años, o mejor dicho durante muchos siglos la humanidad careció de
un instrumento que lo ayude a procesar y archivar información.

Un computador o computadora es una maquina utilizada por el hombre para


desempeñar diversas funciones, si hablamos del origen del computador nos
tendríamos que remontar hasta la edad antigua cuando los hombres Vivian en las
cavernas, como sabemos el hombre primitivo no contaba con ningún medio para
realizar cálculos y operaciones, se dice por ejemplo que para contar los frutos que
recolectaba usaba pajillas o piedras, siempre fue una necesidad para el ser humano el
tener conocimiento de cuanto alimento tenia y cuanto estaba utilizando, porque de
esa manera sabría si va a poder sobrevivir los duros inviernos de aquella época, en esta
época el comercio era nulo, luego fue avanzando hasta que se comenzaron a realizar
trueques entre una y otra tribu, a medida que el trueque avanzo y la sociedad también
es cuando aparece el dinero y por ello la necesidad de un instrumento que pueda dar
cálculos exactos de lo que obtenía.

EVOLUCION DE LA COMPUTADORA
El Abaco
Fue inventada en Babilonia unos 500 años antes de Cristo, los ábacos antiguos eran
tableros para contar, no eran una computadora porque no tenían la capacidad para
almacenar información, pero con este instrumento se realizaban transacciones en
diversas ciudades de la antigüedad. Actualmente se pueden realizar operaciones como
multiplicación y división en los ábacos y son muy usados en China.

Calculadora de Pascal
En 1642 por el joven francés BLAISE PASCAL al ver que su padre tenia problemas para
llevar una correcta cuenta de los impuestos que cobraba inventa una
maquina calculadora que trabajaba a base de engranajes, la misma que Pascal la llamo
con en nombre de PASCALINA.

Maquina de multiplicar de Leibniz


Gottfried Wilhelm von Leibniz agrega a la maquina inventada por Blaise Pascal las
funciones de multiplicación y división.

Charles Xavier Thomas de colmar (1820)


Inventó una calculadora que podía llevar a cabo las cuatro operaciones matemáticas
básicas (sumar, restar, dividir y multiplicar).
Maquina de telar de Jacquard
En 1801 el Francés Joseph Marie Jacquard inventa una máquina de telar. Una de las
ventajas es que por atravez de tarjetas perforadas la maquina era capaz de crear
diferentes patrones en las telas. Las tarjetas perforadas contenían orificios, los cuales
la maquina era capaz de leer y así efectuar el tipo de patrón que se le había indicado.
Esto quiere decir que se había inventado el almacenamiento por medio de las tarjetas
perforadas los cuales ahora conocemos como discos. Las tarjetas perforadas fueron el
inicio de poder almacenar información por medio de los orificios.

Máquina diferencia y analítica de Babbage (1822).


En 1822 Charles Babbage creó una maquina diferencial capaz de desarrollar
polinomios pero varios inconvenientes en las piezas de esta máquina hicieron que
fracasara, luego de este fracaso en 1833 Babbage crea la maquina analítica la cual era
capaz de hacer todas las operaciones matemáticas y ser programada por medio de
tarjetas de cartón perforado y guardar una enorme cantidad de cifras, es por esto que
a Charles Babbage se le considera el padre de la informática.

Maquina tabuladora de Hollerith (1889)


Entre los años 1880 y 1890 se realizaron censos en los estados unidos, los resultados
del primer censo se obtuvieron después de 7 años, por lo que se suponía que los
resultados del censo de 1890 se obtendrían entre 10 a 12 años, es por eso que Herman
Hollerith propuso la utilización de su sistema basado en tarjetas perforadas, y que fue
un éxito ya que a los seis meses de haberse efectuado el censo de 1890 se obtuvieron
los primeros resultados, los resultados finales del censo fueron luego de 2 años, el
sistema que utilizaba Hollerith ordenaba y enumeraba las tarjetas perforadas que
contenía los datos de las personas censadas, fue el primer uso automatizado de una
maquina. Al ver estos resultados Holerith funda una compañía de maquinas
tabuladoras que posteriormente paso a ser la International Business Machines (IBM).

Primera generación del computador


La primera generación de computadoras comprende desde el año 1944 a 1956, en esta
primera generación se da la creación de la computadora MARK I que fue desarrollada
por Howard Aiken, en este periodo se desarrolla la segunda guerra mundial motivo por
el cual muchos proyectos quedaron inconclusos, pero también hubieron proyectos
impulsados por este mismo motivo que fue la guerra, que hizo que se logren grandes
desarrollos, es así como se crea la computadora ENIAC (Electronic Numerical
Integrador and Calculador) que era una enorme computadora la cual ocupaba mas de
una habitación, pesaba más de 30 toneladas y trabajaba con mas de 18 mil tubos de
vacio, una de sus características importantes fue que usaba el sistema binario en lugar
del sistema decimal, luego fue construida por Eckert y Mauchley la computadora
EDVAC (Electronic, Discrete Variable Automatic) que contaba con un programa, este
programa le permitía al computador alternar las operaciones dependiendo de los
resultados obtenidos previamente.

Segunda generación del computador.


La segunda generación comprende desde los años 1959 a 1964, lo más destacable de
esta segunda generación es el reemplazo del uso de tubos al vacío por los transistores
lo que hizo que las computadoras sean más pequeñas y más rápidas.

En esta segunda generación se reemplazo el lenguaje de máquina por el lenguaje


ensamblador, se crearon lenguajes de alto nivel como el COBOL y el FORTRAN. Además
para el almacenamiento de la información se comenzaron a usar cintas magnéticas.

Tercera generación del computador.


Esta generación comprende desde 1964 a 1971 y el mayor logro de esta generación es
el uso de circuitos integrados (chips de silicio), esto hizo que las computadoras sean
más pequeñas y más rápidas, además consumían menos electricidad lo que hacía que
generen menos cantidad de calor, además eran más eficientes.
Con el uso del chip se dio un enorme paso en la era de la computación ya que el chip
contenía una serie de circuitos integrados los cuales almacenaban la información, esto
permitió que las computadoras puedan hacer varias tareas a la vez como era la de
procesamiento de información y cálculo matemático.

Cuarta generación del computador.


La cuarta generación de las computadoras se da desde 1971 a 1981, lo más
importante en esta generación es el invento del microprocesador el cual unía los
circuitos integrados en un solo bloque. La creación del microprocesador hizo posible el
desarrollo de las computadoras personales o PC, lo cual marcaría una revolución en el
mundo de la computación, esto cambiaría la forma de trabajar e incluso de vivir de
muchas personas hasta la actualidad.

En el año de 1971 la compañía INTEL crea el primer chip de 4 bits, el cual contenía una
gran cantidad de transistores.

Quinta generación del computador.


Cabe mencionar que no se tiene muy definido cuando empieza la quinta generación y
la sexta generación del computador, esto debido a que los avances en la tecnología de
la computación se vienen dando de manera muy rápida, todo lo contrario con lo que
sucedió en las primeras generaciones del computador.
Sexta generación del computador.
Como ya se sabe la sexta generación se viene dando a partir de 1990 hasta la fecha, en
estos últimos años hemos venido viendo que las computadoras ahora son mas
pequeñas, son mas versátiles, ahora internet es una herramienta indispensable tanto
en los centros de labores como en el hogar, casi el 90% de la población hace uso en
algún momento de internet, y por consiguiente de una computadora.
Sistema operativo

Un sistema operativo (SO o, frecuentemente, es el software principal o conjunto de


programas de un sistema informático que gestiona los recursos de hardware y provee
servicios a los aplicación de software, ejecutándose en modo privilegiado respecto de
los restantes (aunque puede que parte de él se ejecute en espacio de usuario).

Nótese que es un error común muy extendido denominar al conjunto completo de


herramientas sistema operativo,3 es decir, la inclusión en el mismo término de
programas como el explorador de ficheros, el navegador web y todo tipo de
herramientas que permiten la interacción con el sistema operativo. Otro ejemplo para
comprender esta diferencia se encuentra en la plataforma Amiga, donde el entorno
gráfico de usuario se distribuía por separado, de modo que, también podía
reemplazarse por otro, como era el caso de director y Opus o incluso manejarlo
arrancando con una línea de comandos y el sistema gráfico.

Perspectiva histórica
Los primeros sistemas (1945-1954) eran grandes máquinas operadas desde la consola
maestra por los programadores. Durante la década siguiente (1955-1965) se llevaron a
cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc.
Esto a su vez provocó un avance en el
software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc.

Problemas de explotación y soluciones iníciales


El problema principal de los primeros sistemas era su baja utilización, la primera
solución fue poner un operador profesional que lo manejase, con lo que se eliminaron
las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.
Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se
conoce como procesamiento por lotes(batch) sin automatizar.

Monitores residentes
Según fue avanzando la complejidad de los programas, fue necesario implementar
soluciones que automatizaran la organización de tareas sin necesidad de un operador.
Debido a ello se crearon los monitores residentes: programas que residían en memoria
y que gestionaban la ejecución de una cola de trabajos.

Spoolers
Hace aparición el disco magnético con lo que surgen nuevas soluciones a los
problemas de rendimiento. Se eliminan las cintas magnéticas para el volcado previo de
los datos de dispositivos lentos y se sustituyen por discos (un disco puede simular
varias cintas). Debido al solapamiento del cálculo de un trabajo con la E/S de otro
trabajo se crean tablas en el disco para diferentes tareas, lo que se conoce
como Spool (Simultaneous Peripherial Operation On-Line).

Componentes de un sistema operativo

Gestión de procesos
Un proceso es simplemente, un programa en ejecución que necesita recursos para
realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el
responsable de lo siguiente:

 Crear y destruir procesos


 Parar y reanudar procesos
 Ofrecer mecanismos para que los procesos puedan comunicarse y se sincronicen
La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista
de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo.
Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se
terminen seguir con las de prioridad media y después las de baja. Una vez realizada la
tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden
que nunca lleguen a ejecutarse. y permanezcan en la lista para siempre. Para
solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.
Redes y Tipos de redes

El término red informática hace referencia a un conjunto de equipos y dispositivos


informáticos conectados entre sí, cuyo objeto es transmitir datos para compartir
recursos e información.
Si bien existen diversas clasificaciones de redes informáticas, la más reconocida es
aquella que las distingue de acuerdo a su alcance. De esta manera los tipos de redes
son:

RED DE ÁREA LOCAL o LAN


local area network. Esta red conecta equipos en un área geográfica limitada, tal como
una oficina o edificio. De esta manera se logra una conexión rápida, sin
inconvenientes, donde todos tienen acceso a la misma información y dispositivos de
manera sencilla.

RED DE ÁREA METROPOLITANA o MAN


metropolitan area network. Ésta alcanza una área geográfica equivalente a un
municipio. Se caracteriza por utilizar una tecnología análoga a las redes LAN, y se basa
en la utilización de dos buses de carácter unidireccional, independientes entre sí en lo
que se refiere a la transmisión de datos.

RED DE ÁREA AMPLIA o WAN


wide area network. Estas redes se basan en la conexión de equipos informáticos
ubicados en un área geográfica extensa, por ejemplo entre distintos continentes. Al
comprender una distancia tan grande la transmisión de datos se realiza a una
velocidad menor en relación con las redes anteriores. Sin embargo, tienen la ventaja
de trasladar una cantidad de información mucho mayor. La conexión es realizada a
través de fibra óptica o satélites.

RED DE ÁREA LOCAL INALÁMBRICA o WLAN

Wireless Local Area Network. Es un sistema de transmisión de información de forma


inalámbrica, es decir, por medio de satélites, microondas, etc. Nace a partir de la
creación y posterior desarrollo de los dispositivos móviles y los equipos portátiles, y
significan una alternativa a la conexión de equipos a través de cableado.

RED DE ÁREA PERSONAL o PAN


Personal area network. Es una red conformada por una pequeña cantidad de equipos,
establecidos a una corta distancia uno de otro. Esta configuración permite que la
comunicación que se establezca sea rápida y efectiva.
Historia del Internet
Los inicios de Internet nos remontan a los años 60. En plena guerra fría, Estados
Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético
caso de un ataque ruso, se pudiera tener acceso a la información militar desde
cualquier punto del país.

Esta red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4
ordenadores distribuidos entre distintas universidades del país. Dos años después, ya
contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que
su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el
Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las
redes informáticas (actualmente seguimos utilizando dicho protocolo).

ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines


académicos o de investigación podía tener acceso a la red.
Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una
nueva red creada por los Estados Unidos.
La NSF (National Science Fundation) crea su propia red informática llamada NSFNET,
que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos
y académicos.
El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más
tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos
como INTERNET.

En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos
pocos.
El autor William Gibson hizo una revelación: el término "ciberespacio".
En ese tiempo la red era básicamente textual, así que el autor se baso en los
videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinónimo de
Internet.
El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de
100.000 servidores.

En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee dirigía la


búsqueda de un sistema de almacenamiento y recuperación de datos. Berners Lee
retomó la idea de Ted Nelson (un proyecto llamado "Xanadú" )de usar hipervínculos.
Robert Caillau quien cooperó con el proyecto, cuanta que en 1990 deciden ponerle un
nombre al sistema y lo llamarón World Wide Web (WWW) o telaraña mundial.

La nueva formula permitía vincular información en forma lógica y a través de las redes.
El contenido se programaba en un lenguaje de hipertexto con "etiquetas" que
asignaban una función a cada parte del contenido. Luego, un programa de
computación, un intérprete, eran capaz de leer esas etiquetas para desplegar la
información. Ese intérprete sería conocido como "navegador" o "browser".
En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic", que
permitió acceder con mayor naturalidad a la WWW.
La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse
el programa abría la red a los legos. Poco después Andreesen encabezó la creación del
programa Netscape.

A partir de entonces Internet comenzó a crecer más rápido que otro medio de
comunicación, convirtiéndose en lo que hoy todos conocemos.

Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso remoto
a otras máquinas (SSH y telnet), transferencia de archivos (FTP), correo
electrónico (SMTP), conversaciones en línea (IMSN MESSENGER, ICQ, YIM, AOL,
jabber), transmisión de archivos (P2P, P2M, descarga directa), etc.
Inteligencia artificial

La inteligencia artificial (IA), o mejor llamada inteligencia computacional, es la


inteligencia exhibida por máquinas. En ciencias de la computación, una máquina
"inteligente" ideal es un agente racional flexible que percibe su entorno y lleva a cabo
acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea.
Coloquialmente el término "inteligencia artificial" se aplica cuando una máquina imita
las funciones "cognitivas" que los humanos asocian con otras mentes humanas, como
por ejemplo: "aprender" y "resolver problemas". A medida de que las máquinas se
vuelven cada vez más capaces, tecnología que alguna vez se pensó que requería de
inteligencia se elimina de la definición. Por ejemplo, el reconocimiento óptico de
caracteres ya no se percibe como un ejemplo de la "inteligencia artificial" habiéndose
convertido en una tecnología común. Avances tecnológicos todavía clasificados como
inteligencia artificial son los sistemas capaces de jugar ajedrez, GO y manejar por sí
mismos.
En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como:
"...la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de
cómputo inteligentes".7
Para Nilsson son cuatro los pilares básicos en los que se apoya la inteligencia artificial:

 Búsqueda del estado requerido en el conjunto de los estados producidos por


las acciones posibles.
 Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
 Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de
animales y humanos).
 Razonamiento mediante una lógica formal análogo al pensamiento abstracto
humano.
También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas
y producidas, respectivamente, por sensores físicos y sensores mecánicos en
máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y
salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación
automática, la habilidad de responder a diagnósticos y a consultas de los
consumidores, reconocimiento de escritura, reconocimiento del
habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la
rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en
gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de
computador, y otros videojuegos.

Categorías de la inteligencia artificial


Búsqueda heurística. Podemos definir una heurística como un truco o estrategia que
limita grandiosamente la búsqueda de soluciones ante grandes espacios de problemas.
Por lo tanto ante un problema, nos ayuda a seleccionar las bifurcaciones, dentro de un
árbol, con más posibilidades, con ello se restringe la búsqueda aunque no siempre se
garantiza una solución adecuada. Todo lo que se debe tener para que una heurística
sea adecuada es que nos proporcione soluciones que sean lo suficientemente buenas.
Además utilizando la heurística, no será necesario replantear un problema cada vez
que se afronte, ya que si lo hemos planteado anteriormente, ésta sugerirá la forma en
que se ha de proceder para resolverlo.
Representación del conocimiento. La representación es una cuestión clave a la hora
de encontrar soluciones a los problemas planteados, y que además éstas sean
adecuadas. Si analizamos más detenidamente el término encontramos varias
definiciones, como pueden ser las siguientes: según Barr y Feigenbaum, la
representación del conocimiento es una combinación de estructuras de datos y
procedimientos de interpretación que, si son utilizados correctamente por un
programa, éste podrá exhibir una conducta inteligente. La opinión de Fariñas y Verdejo
será que la Inteligencia Artificial tiene como objetivo construir modelos
computacionales que al ejecutarse resuelvan tareas con resultados similares a los
obtenidos por una persona. Por ello, el tema central de esta disciplina es el estudio del
conocimiento y su manejo. Y por último la opinión de Buchanan y Shortliffe apunta a
que la Representación del Conocimiento en un programa de Inteligencia Artificial
significa elegir una serie de convenciones para describir objetos, relaciones, y procesos
en el mundo. Gran parte del esfuerzo realizado en la consecución de ordenadores
inteligentes, según Rahael, ha sido caracterizado por el intento continuo de conseguir
más y mejores estructuras de representación del conocimiento, junto con técnicas
adecuadas para su manipulación, que permitiesen la resolución inteligente de algunos
de los problemas ya planteados. Otra característica a resaltar, es la inclusión en los
programas de Inteligencia artificial, aunque por separado, de los conocimientos y la
unidad que controla y dirige la búsqueda de soluciones. Dada esta disposición, en estos
programas se hace fácil la modificación, ampliación y actualización de los mismos.

Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:

 Sistemas que piensan como humanos. Estos sistemas tratan de emular el


pensamiento humano; por ejemplo las redes neuronales artificiales. La
automatización de actividades que vinculamos con procesos de pensamiento
humano, actividades como la toma de decisiones, resolución de
problemas y aprendizaje.9
 Sistemas que actúan como humanos. Estos sistemas tratan de actuar como
humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El
estudio de cómo lograr que los computadores realicen tareas que, por el
momento, los humanos hacen mejor.
 Sistemas que piensan racionalmente. Es decir, con lógica (idealmente), tratan de
imitar o emular el pensamiento lógico racional del ser humano; por ejemplo
los sistemas expertos. El estudio de los cálculos que hacen
posible percibir, razonar y actuar.11
 Sistemas que actúan racionalmente (idealmente).Tratan de emular de forma
racional el comportamiento humano; por ejemplo los agentes inteligentes.Está
relacionado con conductas inteligentes en artefactos.
Escuelas de pensamiento
La IA se divide en dos escuelas de pensamiento:

 La inteligencia artificial convencional.


 La inteligencia computacional.
Inteligencia artificial convencional
Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y
estadístico del comportamiento humano ante diferentes problemas:

 Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven


ciertos problemas concretos y, aparte de que son muy importantes, requieren de
un buen funcionamiento.
 Sistemas expertos: Infieren una solución a través del conocimiento previo del
contexto en que se aplica y ocupa de ciertas reglas o relaciones.
 Redes bayesianas: Propone soluciones mediante inferencia probabilística.
 Inteligencia artificial basada en comportamientos: Esta inteligencia contiene
autonomía y puede auto-regularse y controlarse para mejorar.
 Smart process management: Facilita la toma de decisiones complejas,
proponiendo una solución a un determinado problema al igual que lo haría un
especialista en la dicha actividad.
Inteligencia artificial computacional
La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva)
implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas
de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en
datos empíricos.

Críticas
Las principales críticas a la inteligencia artificial tienen que ver con su capacidad de
imitar por completo a un ser humano. Estas críticas ignoran que ningún humano
individual tiene capacidad para resolver todo tipo de problemas, y autores
como Howard Gardner han propuesto que existen inteligencias múltiples. Un sistema
de inteligencia artificial debería resolver problemas. Por lo tanto es fundamental en su
diseño la delimitación de los tipos de problemas que resolverá y las estrategias y
algoritmos que utilizará para encontrar la solución.
En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos
innatos y los aspectos aprendidos. Los aspectos innatos permiten por ejemplo
almacenar y recuperar información en la memoria y los aspectos aprendidos el saber
resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo
que un humano debe disponer de herramientas que le permitan solucionar ciertos
problemas, los sistemas artificiales deben ser programados de modo tal que puedan
resolver ciertos problemas.
Virus informático
Un virus es un malware que tiene por objetivo alterar el funcionamiento normal
del ordenador, sin el permiso o el conocimiento del usuario. Los virus, habitualmente,
reemplazan archivos ejecutables por otros infectados con el código de este. Los virus
pueden destruir, de manera intencionada, los datos almacenados en una
computadora, aunque también existen otros más inofensivos, que solo producen
molestias.

Los virus informáticos tienen, básicamente, la función de propagarse a través de


un software, son muy nocivos y algunos contienen además una carga dañina (payload)
con distintos objetivos, desde una simple broma hasta realizar daños importantes en
los sistemas, o bloquear las redes informáticas generando tráfico inútil.

Virus informáticos y sistemas operativos


Los virus informáticos afectan en mayor o menor medida a casi todos los sistemas más
conocidos y usados en la actualidad.

Cabe aclarar que un virus informático mayoritariamente atacará sólo el sistema


operativo para el que fue desarrollado, aunque ha habido algunos casos de virus
multiplataforma.

MS-Windows y Android
Las mayores incidencias se dan en el sistema operativo Windows y Android debido,
entre otras causas:

Su gran popularidad, como sistemas operativos, entre los computadores personales y


dispositivos móviles. Se estima que, en 2007, un 90 % de ellos usaba
Windows.cita requerida] Mientras que Android tiene una cuota de mercado de 80% en
2015. Esta popularidad basada en la facilidad de uso sin conocimiento previo alguno,
motiva a los creadores de software malicioso a desarrollar nuevos virus; y así, al atacar
sus puntos débiles, aumentar el impacto que generan.

Métodos de propagación
Existen dos grandes clases de contagio. En la primera, el usuario, en un momento
dado, ejecuta o acepta de forma inadvertida la instalación del virus. En la segunda, el
programa malicioso actúa replicándose a través de las redes. En este caso se habla de
gusanos.
En cualquiera de los dos casos, el sistema operativo infectado comienza a sufrir una
serie de comportamientos anómalos o imprevistos. Dichos comportamientos pueden
dar una pista del problema y permitir la recuperación del mismo.

Métodos de protección
Los métodos para disminuir o reducir los riesgos asociados a los virus pueden ser los
denominados activos o pasivos.

Activos

Antivirus: son programas que tratan de descubrir las trazas que ha dejado un software
malicioso, para detectarlo y eliminarlo, y en algunos casos contener o parar la
contaminación. Tratan de tener controlado el sistema mientras funciona parando las
vías conocidas de infección y notificando al usuario de posibles incidencias de
seguridad. Por ejemplo, al verse que se crea un archivo llamado Win32.EXE.vbs en la
carpeta C:\Windows\%System32%\ en segundo plano, ve que es comportamiento
sospechoso, salta y avisa al usuario.
Hardware
La palabra hardware se refiere a las partes físicas tangibles de un sistema informático;
sus componentes eléctricos, electrónicos, electromecánicos y mecánicos.1 Cables,
gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado
componen el hardware; contrariamente, el soporte lógico e intangible es el
llamado software.

El término es propio del idioma inglés, su traducción al español no tiene un significado


acorde, por tal motivo se lo ha adoptado tal cual es y suena. La Real Academia
Española lo define como «Conjunto de los componentes que integran la parte material
de una computadora».2 El término, aunque sea lo más común, no solamente se aplica
a las computadoras, también un robot, un teléfono móvil, una cámara fotográfica,
un reproductor multimediao cualquier otro electrónico que procese datos
posee hardware (y software).3 4 La historia del hardware de computador se puede
clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de
importancia. Una primera delimitación podría hacerse entre hardware básico, como el
estrictamente necesario para el funcionamiento normal del equipo, y
el complementario, como el que realiza funciones específicas.

Un sistema informático se compone de una unidad central de procesamiento (UCP


o CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que
permiten el ingreso de la información y uno o varios periféricos de salida, que
posibilitan dar salida (normalmente en forma visual o auditiva) a los datosprocesados.
Su abreviatura es Hw.

Historia

La clasificación evolucionista del hardware del computador electrónico está dividida en


generaciones, donde cada una supone un cambio tecnológico notable. El origen de las
primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo cambios
radicales.5 Los componentes esenciales que constituyen la electrónica del computador
fueron totalmente reemplazados en las primeras tres generaciones, originando
cambios que resultaron trascendentales. En las últimas décadas es más difícil distinguir
las nuevas generaciones, ya que los cambios han sido graduales y existe cierta
continuidad en las tecnologías usadas. En principio, se pueden distinguir:

1.Generación (1945-1956): electrónica implementada con tubos de vacío. Fueron las


primeras máquinas que desplazaron los componentes electromecánicos (relés).

2. Generación (1957-1963): electrónica desarrollada con transistores. La lógica discreta


era muy parecida a la anterior, pero la implementación resultó mucho más pequeña,
reduciendo, entre otros factores, el tamaño de un computador en notable escala.
Software
Se conoce como software1 al equipo lógico o soporte lógico de un sistema informático,
que comprende el conjunto de los componentes lógicos necesarios que hacen posible
la realización de tareas específicas, en contraposición a los componentes físicos que
son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas,
tales como el procesador de texto, que permite al usuario realizar todas las tareas
concernientes a la edición de textos; el llamado software de sistema, tal como
el sistema operativo, que básicamente permite al resto de los programas funcionar
adecuadamente, facilitando también la interacción entre los componentes físicos y el
resto de las aplicaciones, y proporcionando una interfaz con el usuario.

El anglicismo software es el más ampliamente difundido al referirse a este concepto,


especialmente en la jerga técnica; en tanto que el término sinónimo «logicial»,
derivado del término francés logiciel, es utilizado mayormente en países y zonas de
influencia francesa. Su abreviatura es Sw.

Software (pronunciación AFI es una palabra proveniente del inglés, que en español no
posee una traducción adecuada al contexto, por lo cual se la utiliza asiduamente sin
traducir y así fue admitida por la Real Academia Española(RAE).2 Aunque puede no ser
estrictamente lo mismo, suele sustituirse por expresiones tales como programas
(informáticos) o aplicaciones (informáticas) o soportes lógicos.3

Software es lo que se denomina producto en Ingeniería de software.4

Existen varias definiciones similares aceptadas para software, pero probablemente la


más formal sea la siguiente:

Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y


datos asociados, que forman parte de las operaciones de un sistema de computación.

Extraído del estándar 729 del IEEE5

Considerando esta definición, el concepto de software va más allá de los programas de


computación en sus distintos estados: código fuente, binario o ejecutable; también su
documentación, los datos a procesar e incluso la información de usuario forman parte
del software: es decir, abarca todo lo intangible, todo lo «no físico» relacionado.

El término «software» fue usado por primera vez en este sentido por John W.
Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el
software es toda la información procesada por los sistemas informáticos: programas
y datos.
El concepto de leer diferentes secuencias de instrucciones (programa) desde
la memoria de un dispositivo para controlar los cálculos fue introducido por Charles
Babbage como parte de su máquina diferencial. La teoría que forma la base de la
mayor parte del software moderno fue propuesta por Alan Turing en su ensayo de
1936, «Los números computables», con una aplicación al problema de decisión.

Clasificación del software

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines
prácticos se puede clasificar al software en tres tipos:

Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al


programador de los detalles del sistema informático en particular que se use,
aislándolo especialmente del procesamiento referido a las características internas de:
memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas,
teclados, etc. El software de sistema le procura al usuario y programador
adecuadas interfaces de alto nivel, controladores, herramientas y utilidades de apoyo
que permiten el mantenimiento del sistema global. Incluye entre otros:
Memoria (informática)
En informática, la memoria es el dispositivo que retiene, memoriza o
almacena datos informáticos durante algún de tiempo.1 La memoria proporciona una
de las principales funciones de la computación moderna: el almacenamiento de
información y conocimiento. Es uno de los componentes fundamentales de
la computadora, que interconectada a la unidad central de procesamiento (CPU, por
las siglas en inglés de Central Processing Unit) y los dispositivos de entrada/salida,
implementan lo fundamental del modelo de computadora de la arquitectura de von
Neumann.

En la actualidad, «memoria» suele referirse a una forma de almacenamiento de estado


sólido, conocida como memoria RAM (memoria de acceso aleatorio; RAM por sus
siglas en inglés, de random access memory), y otras veces se refiere a otras formas de
almacenamiento rápido, pero temporal. De forma similar, se refiere a formas de
almacenamiento masivo, como discos ópticos, y tipos de almacenamiento magnético,
como discos duros y otros tipos de almacenamiento, más lentos que las memorias
RAM, pero de naturaleza más permanente. Estas distinciones contemporáneas son de
ayuda, porque son fundamentales para la arquitectura de computadores en general.

Además, se refleja una diferencia técnica importante y significativa entre «memoria» y


«dispositivos de almacenamiento masivo», que se ha ido diluyendo por el uso histórico
de los términos «almacenamiento primario» (a veces «almacenamiento principal»),
para memorias de acceso aleatorio, y «almacenamiento secundario», para dispositivos
de almacenamiento masivo. Esto se explica en las siguientes secciones, en las que el
término tradicional «almacenamiento» se usa como subtítulo, por conveniencia.

Capacidad de memoria
Memorias de mayor capacidad son el resultado de la rápida evolución en tecnología
de materiales semiconductores. Los primeros programas de ajedrez funcionaban en
máquinas que utilizaban memorias de base magnética. A inicios de 1970 aparecen las
memorias realizadas por semiconductores, como las utilizadas en la serie de
computadoras IBM 370.

La velocidad de los computadores se incrementó, multiplicada por 100.000


aproximadamente y la capacidad de memoria creció en una proporción similar. Este
hecho es particularmente importante para los programas que utilizan tablas de
transposición: a medida que aumenta la velocidad de la computadora se necesitan
memorias de capacidad proporcionalmente mayor para mantener la cantidad extra de
posiciones que el programa está buscando.

Se espera que la capacidad de procesadores siga aumentando en los próximos años;


no es un abuso pensar que la capacidad de memoria continuará creciendo de manera
impresionante. Memorias de mayor capacidad podrán ser utilizadas por programas
con tablas de Hash de mayor envergadura, las cuales mantendrán la información en
forma permanente.

You might also like