You are on page 1of 26

DEFIN IC IÓN DE ÁLGEBR A BOOLEANA

Para comprender qué es el álgebra booleana es necesario entender el concepto


de álgebra y saber quién fue George Boole. Sobre el álgebra, podemos decir que
es la rama de las matemáticas que apela a la generalización de las operaciones
aritméticas utilizando signos, letras y números. Estos elementos se encargan de la
representación de entidades matemáticas mediante el simbolismo.
El británico George Boole (1815-1864),
por su parte, fue un destacado matemático
que está considerado como uno de los
pioneros en el desarrollo de las ciencias de
la computación. Sus aportes teóricos
dieron lugar a la especialización que se conoce como álgebra de Boole o álgebra
booleana.
Es más, incluso se le atribuye a este matemático y lógico británico ser el padre de lo
que son los operadores lógicos simbólicos. Por eso, para muchos especialistas, sin
lugar a dudas, gracias a ello hoy se puedan realizar todo tipo de operaciones
lógicas, sí gracias a elementos de tipo simbólico.

Boole propuso un esquema o sistema para la expresión simplificada de


problemas lógicos a través de dos estados (falso o verdadero) mediante un
procedimiento matemático. A esta estructura se la denomina álgebra booleana.
A través del sistema ideado por Boole, se utilizan símbolos para el desarrollo de las
operaciones lógicas “SI”, “NO”, “O” e “Y” (o “YES”, “NOT”, “OR” e “IF” en inglés),
que de este modo pueden esquematizarse. Este es uno de los pilares de la
aritmética computacional y de la electrónica.
Puede decirse que el álgebra booleana apela a nociones algebraicas para el
tratamiento de enunciados de la lógica proposicional. Las operaciones más
habituales son las binarias, que requieren de dos argumentos. Se
llama conjunción lógica al resultado verdadero que se obtiene cuando los dos
enunciados son verdaderos: si A es verdadero y B es verdadero, la conjunción
de A y B será verdadera.
Además de todo lo expuesto, podemos señalar que también se realizan otras
operaciones tales como las siguientes:
-Operaciones nularias, donde cobran protagonismo tanto la contradicción como la
tautología. Podemos establecer que las mismas se caracterizan por el hecho de que
vienen a devolver un valor sin necesidad de que exista ningún tipo de argumentos.
-Operaciones unarias. Estas otras son las que vienen a definirse por el hecho de que
necesitan un único argumento para presentar un resultado. Además de esto
también hay que subrayar que pueden ser de dos tipos: de negación o de identidad.

No menos importante es conocer otra serie de aspectos relevantes acerca de la


algebra booleana, entre los que podemos destacar los siguientes:
-Las operaciones tienen que realizarse siguiendo una jerarquía, ya que es la manera
de que puedan dar el resultado correcto. Con esto nos referimos a que, por ejemplo,
si hay paréntesis se debe resolver primero lo que hay dentro de esos y luego
continuar realizando la operación hacia “fuera”.
-En el caso de que existan varias operaciones con la misma jerarquía, tanto si se
acometen de izquierda a derecha como de derecha a izquierda el resultado será
idéntico.

George Boole
(Lincoln, Reino Unido, 1815 - Ballintemple, actual Irlanda, 1864) Matemático
británico, creador de un nuevo sistema de cálculo lógico que póstumamente sería
llamado Álgebra de Boole. Dicho sistema, en el que las proposiciones se reducen a
símbolos sobre los que puede operarse matemáticamente, supuso un avance
fundamental en el desarrollo de la lógica y, más de un siglo después, hallaría un
formidable e insospechado campo de aplicación en la informática y los
microprocesadores, cuyo funcionamiento se basa en la lógica binaria de Boole.

George Boole

Miembro de una familia venida a menos, George Boole tuvo que desestimar su
propósito de hacerse monje al verse obligado a mantener a sus padres. A los
dieciséis años enseñaba matemáticas en un colegio privado y más tarde fundó uno
propio. A los veinticuatro años, tras la publicación de su primer escrito, pudo
ingresar en Cambridge, pero hubo de declinar la oferta a causa de sus deberes
respecto a su familia. En 1849 fue nombrado profesor de matemáticas del Queen's
College, en Cork, donde permaneció el resto de su vida.

Prácticamente autodidacta, George Boole se interesó sobre todo por el análisis


matemático, y muy pronto alcanzó gran notoriedad gracias a sus brillantes
aportaciones y artículos referidos a este tema. En esa dirección debe destacarse su
obra Análisis matemático de la lógica (1847), que contiene sus primeras
observaciones sobre los vínculos entre la lógica y las matemáticas y que muchos
consideran como el acta de nacimiento de la lógica matemática.

El gran descubrimiento de Boole fue aplicar una serie de símbolos a elementos y


operaciones lógicas y hacer que estos símbolos y operaciones -por elección
cuidadosa- tuvieran la misma estructura lógica que el álgebra convencional. En el
álgebra de Boole, los símbolos podían manipularse según reglas fijas que
producirían resultados lógicos.

En 1854 publicó Investigación sobre las leyes del pensamiento, libro que trataba
por completo de la lógica simbólica y su álgebra. La influencia de esta lógica
matemática sobre las matemáticas modernas tendría una evolución lenta: si en un
primer momento no parecía más que un intrincado juego de palabras, más
adelante se vio que era de lo más útil, y hasta completamente indispensable para
llegar a la matemática lógica. Boole se casó a la edad de cuarenta años y tuvo cinco
hijas, a las que no llegó a ver adolescentes.

El álgebra de Boole

Esta forma de cálculo desarrollada por George Boole es un sistema mediante el cual
ciertos razonamientos lógicos pueden expresarse en términos matemáticos. Los
elementos del álgebra de Boole son un conjunto de proposiciones, es decir, de
hechos expresados mediante oraciones del lenguaje natural. Tales proposiciones
tienen como propiedad ser verdaderas o falsas. Al mismo tiempo, y prescindiendo
de si son verdaderas o falsas, cada proposición tiene lo que se llama su proposición
complementaria, que no es sino la negación de la misma: la negación de la
proposición P es la proposición complementaria P'.
Las consecuencias de estas proposiciones pueden descubrirse realizando
operaciones matemáticas sobre los símbolos que las representan. Las dos
operaciones básicas son la conjunción y la disyunción. Su sentido es fácil de
comprender si se piensa en las dos partículas gramaticales correspondientes, la
conjunción copulativa "y" (con idea de adición o suma) y la conjunción disyuntiva
"o" (con idea de exclusión). En el lenguaje natural, sin embargo, tales conjunciones
pueden tener otras valores, cosa que obviamente no ocurre en el álgebra de Boole.

Como ejemplo simple, consideremos las dos proposiciones siguientes: "hoy estaré
en casa" y "mañana estaré en casa". Representamos la primera proposición con el
símbolo P y la segunda con el símbolo Q. Las dos proposiciones pueden combinarse
en una de dos formas: por un lado, P o Q (hoy estaré en casa o mañana estaré en
casa), y, por otro P y Q (hoy estaré en casa y mañana estaré en casa).

Las reglas del álgebra de Boole pueden utilizarse para determinar las consecuencias
de las diversas combinaciones de estas proposiciones en función de si las
proposiciones son verdaderas (V) o falsas (F). Así, si ambas proposiciones son
verdaderas, la combinación P y Q es también verdadera. Es decir, si la proposición
"hoy estaré en casa" (P) es verdadera, y la proposición "mañana estaré en casa" (Q)
también es verdadera, entonces la combinación "hoy estaré en casa y mañana
estaré en casa" (P y Q) también debe ser verdadera.

Supongamos, en cambio, que P es verdadera y Q es falsa. Es decir, la proposición


"hoy estaré en casa" (P) es verdadera, pero la proposición "mañana estaré en casa"
(Q) es falsa. En tal caso, la combinación "hoy estaré en casa y mañana estaré en
casa" (P y Q) debe ser falsa. Como puede imaginarse, la mayoría de las cuestiones
que aborda el álgebra de Boole son mucho más arduas que este ejemplo simple.
Con el paso del tiempo, los matemáticos han desarrollado complejas técnicas para
formalizar y calcular procesos lógicos muy complicados.
Dos elementos del álgebra de Boole la convierten en una forma matemática muy
importante para su aplicación práctica. En primer lugar, las proposiciones
expresadas en el lenguaje diario (como "hoy estaré en casa") pueden convertirse en
expresiones matemáticas, como letras y números. En segundo lugar, esos símbolos
generalmente tienen uno de dos valores: las proposiciones pueden ser afirmativas o
negativas (complementarias); las operaciones son conjunción o disyunción; y no
sólo las proposiciones, sino también el resultado de sus combinaciones (P, Q, P y
Q, P o Q), son verdaderas o falsas. Esto significa que pueden expresarse por medio
de un sistema binario: verdadero o falso; sí o no; 0 ó 1.

El sistema matemático binario es el sistema numérico más utilizado en los


ordenadores. Los sistemas computarizados consisten en núcleos magnéticos que
pueden ponerse en marcha o detenerse; los números 0 y 1 se usan para representar
los dos estados posibles de un núcleo magnético. Las operaciones que los
microprocesadores pueden llevar a cabo con la información binaria son muy
simples (negación, conjunción y disyunción siguiendo el álgebra de Boole, y
también comparaciones y las cuatro operaciones aritméticas), pero la combinación
de todas estas operaciones a grandísima velocidad permite ejecutar tareas muy
complejas. De este modo, los procedimientos de cálculo lógico del álgebra de Boole
han pasado a constituir la "inteligencia" de multitud de objetos cotidianos: cuando
los ingenieros diseñan los circuitos para los ordenadores personales, calculadoras
de bolsillo, lectores de discos compactos, teléfonos móviles y una gran cantidad de
otros tipos de productos electrónicos, no hacen sino capacitarlos para ejecutar
operaciones y procesos basados en los principios del álgebra de Boole.
TIM BERNERS-LEE

XIV PADRE DE LA WEB


Sir Timothy "Tim" John Berners-Lee OM, KBE (TimBL o TBL) nació el 8 de junio de 1955 en Londres, Reino
Unido, se licenció en Física en 1976 en el Queen's College de la Universidad de Oxford. Es considerado el
padre de la web. Sus padres eran matemáticos y formaron parte del equipo que construyó el Manchester Mark
I (uno de los primeros ordenadores). Durante el tiempo que estuvo en la universidad, construyó un ordenador
con una soldadora, circuitos TTL, un procesador Motorola 68000 y un televisor viejo. Se graduó en física en
1976. Conoció a su primera esposa en su estancia en Oxford. En 1978, trabajó en D.G. Nash Limited (también
en Poole) donde escribió un sistema operativo.
Ante la necesidad de distribuir e intercambiar información acerca de sus investigaciones de una manera más
efectiva, Berners-Lee desarrolló las ideas fundamentales que estructuran la web. Él y su grupo crearon lo que
por sus siglas en inglés se denomina Lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas
de hipertexto, el protocolo HTTP (HyperText Transfer Protocol) y el sistema de localización de objetos en la web
URL (Uniform Resource Locator).
JOHN VON NEUMANN (1903 - 1957)
XIII NEWMANN
Nació en Budapest (Hungría), su nombre verdadero es Margittai Neumann János (los húngaros colocan sus
apellidos antes que el nombre) que se puede traducir como János Neumann de Margitta, que se transformó en
Jhohann Neumann von Margitta cuando se trasladó a Alemania y que luego se lo recortaron quedándose en
Johann von Neumann, para finalmente conocérsele mundialmente como John von Neumann, al llegar a EE.UU.
John von Neumann fue un niño prodigio, con una gran memoria fotográfica y una gran habilidad para los
idiomas. A los 10 años ingresó al Gimnasio Luterano, en donde destacó por su talento para las matemáticas.
Ingresó en la universidad de Budapest en 1921 para estudiar matemáticas, aunque sólo iba a la universidad
cuando tenía que hacer los exámenes, en cambio si asistía a clases de química en Berlín, entre 1921 y 1923.
Su padre no quería que estudiase matemáticas, ya que pensaba que no era una carrera con la que luego
pudiera ganar dinero, por eso von Neumann ingresó en Eidgenssische Technische Hochschule (ETH) en Zurcí
para estudiar ingeniería química, sin darse de baja en la universidad de Budapest.
En 1925 obtuvo la licenciatura en ingeniería química, y en 1926 el doctorado en matemáticas. De 1926 a 1927
trabajó en la universidad de Göttingen gracias a una beca. En 1927 fue nombrado conferenciante en la
universidad de Berlín.
En 1930, fue invitado para trabajar como profesor visitante en la universidad de Princeton (EE.UU.), y durante
3 años von Neumann pasaba medio año enseñando en Princeton y medio año enseñando en Berlín. En 1933
fue contratado por el Instituto de Estudios Avanzados (IEA) y en 1937 se nacionalizó norteamericano.
Al comenzar la Segunda Guerra Mundial comenzó a trabajar para el Gobierno de los EE.UU., hacia 1943 von
Neumann empezó a interesarse por la computación para ayudarse en su trabajo, en aquellos años había
numerosas computadoras en construcción, como por ejemplo la Mark I (Howard Aiken) o Complex Computer
(George Stibiz), pero con la que von Neumann se involucró fue el ENIAC (junto con John Presper Eckert y John
W. Mauchly). Una vez finalizada la construcción del ENIAC y viendo sus limitaciones, decidieron definir todo un
nuevo sistema lógico de computación basado en las ideas de Turing y se enfrascaron en el diseño y la
construcción de una computadora más poderosa el EDVAC (Electronic Discrete Variable Arithmetic Computer).
Pero hubo problemas legales con la titularidad de lo que hoy conocemos como Arquitectura de von Neumann.
Esto produjo que el diseño se hiciera público, al final Eckert y Mauchly siguieron su camino y von Neumann
regresó a Princeton con la idea de construir su propia computadora.
En los años 50 construyó la computadora IAS, cuyo diseño ha sido una de las bases de la computadora actual,
conociéndose como "arquitectura de von Neumann". Otras de sus contribuciones en computación fueron por
ejemplo el uso de monitores para visualizar los datos y el diagrama de flujo. También colaboró en el libro
"Cibernética: control y comunicación en el animal y en la máquina" escrito junto con Norbert Wiener, en donde
se explica la teoría de la cibernética.
En 1954 empezó a trabajar para la Comisión de Energía Atómica. A lo largo de su vida von Neumann obtuvo
numerosos reconocimientos por su labor científica, como varios doctorados Honoris Causa, la medalla
presidencial al mérito, y el premio Albert Einstein. También recibió en 1956 el premio Enrico Fermi de la
Comisión de Energía Atómica por sus "notables aportaciones" a la teoría y diseño de las computadoras
electrónicas.
ALAN MATHISON TURING (1912 - 1954)

XII TURING
Nació en Londres (Gran Bretaña), desde muy temprana edad Turing demostró su inteligencia. A los 3 años
tenía una inusual capacidad para recordar palabras y a los 8 años se interesó por la química montando un
laboratorio en su casa. Con 13 años ingresó en la escuela Sherborne, en la que ya demostraba su facilidad
para las matemáticas, teniendo una gran capacidad para realizar cálculos mentalmente.
Obtuvo una beca para estudiar en la universidad de Cambridge, en donde se graduó de la licenciatura de
matemáticas con honores en 1934. En abril de 1936, publicó el artículo "On computable numbers, with an
application to the Entscheidungsproblem" en el que introduce el concepto de algoritmo y de máquina de Turing.
Este artículo da respuesta (negativa) al problema de la decisión formulada por Hilbert en 1900, probando que
existen problemas sin solución algorítmica y es uno de los cimientos más importantes de la teoría de la
computación.
En septiembre de 1936, Turing ingresó en la universidad de Princeton (EE.UU.). Su artículo atrajo la atención
de uno de los científicos más destacados de la época, John von Neumann, quien le ofreció una beca en el
Instituto de Estudios Avanzados. Turing obtuvo su doctorado en matemáticas en 1938. Tras su graduación, von
Neumann le ofreció una plaza como su asistente, pero Turing rechazó la oferta y volvió a Inglaterra, en donde
vivió de una beca universitaria mientras estudiaba filosofía de las matemáticas entre 1938 y 1939.
En 1939, con el comienzo de la Segunda Guerra Mundial, Turing fue reclutado por el ejército británico para
descifrar los códigos emitidos por la máquina Enigma utilizada por los alemanes. En el deseo de obtener mejores
máquinas descifradoras, se comenzó a construir la primera computadora electrónica, llamada Colossus, bajo la
supervisión de Turing, se construyeron 10 unidades, y la primera empezó a operar en 1943. Por su trabajo en
el Colossus, Turing recibió la Orden del Imperio Británico en 1946.
En 1944, Turing fue contratado por el Laboratorio Nacional de Física (NLP) para competir con el proyecto
americano EDVAC, de von Neumann. Turing ejerció como Oficial Científico Principal a cargo del Automatic
Computing Engine (ACE). Hacia 1947, Turing concibió la idea de las redes de cómputo y el concepto de
subrutina y biblioteca de software. También describió las ideas básicas de lo que hoy se conoce como red
neuronal. Abandonó la NLP en 1948.
Turing se adelantó al proyecto de construcción de un ordenador de acuerdo con la arquitectura de von
Neumann. El Manchester Mark I, estuvo acabado en 1948 antes que el EDVAC. Turing diseñó para esta
máquina un lenguaje de programación basado en el código empleado por los teletipos.
Otro de los campos de investigación de Turing fue la inteligencia artificial, se puede decir que esta disciplina
nació a partir del artículo titulado "Computing Machinery and Inteligence" publicado por Turing en 1950. Es muy
famosa la primera frase de este artículo: " Propongo considerar la siguiente cuestión: ¿Pueden pensar las
máquinas?”. Turing propuso un método llamado el test de Turing para determinar si las máquinas podrían tener
la capacidad de pensar.
En 1951, es nombrado miembro de la Sociedad Real de Londres por sus contribuciones científicas. Y en su
honor, la Association for Computing Machinery llama "Turing Award" a su premio más importante, el cual se
otorga desde 1966 a los expertos que han realizado las mayores contribuciones al avance de la computación.
JOHN PRESPER ECKERT (1919 - 1995)
VIII ECKERT
Nació en Filadelfia (EE.UU.), en 1937 ingresó en la Universidad de Pennsylvania para estudiar ingeniería
eléctrica, terminando la carrera en 1941 con excelentes calificaciones.
Tras su graduación le dieron un puesto como instructor de cursillos de electrónica para las investigaciones que
se llevaban a cabo con motivo de la Segunda Guerra Mundial.
Eckert enseguida se interesó por las ideas que tenía Mauchly sobre la construcción de una computadora. De la
colaboración de ambos surgió el proyecto ENIAC.
En Mayo de 1943 designaron a Eckert ingeniero principal del proyecto cuya tarea específica era diseñar los
circuitos electrónicos. Uno de los problemas que solucionó fue conseguir que las 18000 válvulas de las que
estaba compuesto el ENIAC tuvieran una vida larga para que así el ENIAC fuera viable. También se encargó
del diseño de las calculadoras en base 10 para el ENIAC.
En octubre de 1946 Eckert abandonó la universidad de Pennsylvania, al igual que Mauchly. Creando juntos la
empresa "Control Electrónico" (Eckert-Mauchly Corporation) construyendo diversas computadora como el
BINAC (Computadora Binaria Automática) en la que los datos eran almacenados en cintas magnéticas, o el
UNIVAC (Computadora Universal Automática) que fue la primera que se comercializó en EEUU. Pero tuvieron
problemas económicos con lo que su empresa fue absorbida en 1950 la Rand Remington Corporation, Eckert
permaneció en la compañía pasando a ser un ejecutivo de la misma. Se fusionaron con Burroughs Corporation
creándose así Unisys. Eckert se retiró de Unisys en 1989, aunque siguió ejerciendo como consultor para
distintas empresas.
ADA BYRON, CONDESA DE LOVELACE (1815 - 1852)
VII ADA
Ada Byron nació el 10 de diciembre de 1815. Hija del poeta Lord Byron, su madre hizo todo lo posible para que
no siguiera los pasos de su padre por lo que desde pequeña la guio por el camino de las ciencias y las
matemáticas.
Con 17 años Ada conoció a Mary Sormerville que la animó en sus estudios matemáticos. Durante una cena
organizada por Sormerville en noviembre de 1834, Ada oyó a Charles Babbage hablar de sus ideas sobre la
máquina analítica, y a partir de ahí surgió la colaboración entre ambos. Babbage trabajó sobre este proyecto y
realizó una conferencia sobre sus trabajos en un seminario de Turín (Italia) en 1840, y un matemático italiano
llamado Menabrea escribió un artículo en francés sobre todo lo dicho por Babbage. Ada, que estaba casada
desde 1843 con el Conde de Lovelace y era madre de 3 niños, tradujo este artículo, y cuando se lo enseñó a
Babbage éste le sugirió que añadiera sus propias ideas. El resultado fue que las notas que añadió Ada eran
tres veces más del artículo original. En dichas notas, que fueron publicadas en 1843, ella predijo que la máquina
de Babbage podría ser usada tanto para un uso práctico como científico.
Ada sugirió a Babbage escribir un "plan" para que la máquina calculase números de Bernuilli, este "plan" es
considerado el primer "programa de ordenador", y por ello se considera a Ada el primer programador de la
historia. Existe un lenguaje de programación desarrollado por el departamento de defensa de USA en 1979 que
lleva su nombre: ADA.
Fue una mujer adelantada a su tiempo, que lamentablemente murió muy joven (con 37 años).

VANNEVAR BUSH (1890 - 1974)


VI BUSH
Nació en Massachusetts (EE.UU.), fue un niño enfermizo pero con un gran espíritu de superación. En la escuela
ya demostraba su gran aptitud para las matemáticas. Ingresó en el Tufts College para estudiar ingeniería, sus
estudios los pagó la mitad con una beca y la otra mitad trabajando como asistente en el departamento de
matemáticas. Obtuvo el master en el tiempo en el que normalmente se conseguía la licenciatura. Estando en la
universidad ya realizó sus primeros inventos. Tras graduarse en la universidad trabajó para General Electric, de
donde le despidieron cuando se produjo un incendio en su planta. En 1914 dio clases en el Tufts College. En
1915 ingresó en el MIT (Massachusetts Institute Tecnology), en donde obtuvo su doctorado, tras lo cual regresó
a Tufts College para ejercer como profesor auxiliar.
Durante la Primera Guerra Mundial, un grupo de científicos interesados en ayudar al gobierno norteamericano
formó el Consejo de Investigación Nacional (NRC), cuyo propósito era mejorar el armamento. Una de sus tareas
fue el desarrollo de dispositivos para la detección de submarinos, que fue desarrollado por Bush a partir de
1917.
Al finalizar la guerra Bush volvió al MIT para dedicarse al desarrollo de computadoras. En 1927 desarrolló su
primera máquina analógica para resolver sencillas ecuaciones. Bush continuó con sus ideas y así en 1930
desarrolló el Analizador Diferencial, un dispositivo mecánico para la resolución de ecuaciones diferenciales. En
1935, Bush desarrolló una segunda versión, cuyos componentes eran electromecánicos, y la entrada de
instrucciones a través de tarjetas perforadas.
Durante la Segunda Guerra Mundial, Bush trabajó como consejero para el presidente de los EE.UU. Roosevelt
para la investigación militar. En 1945, publicó un artículo titulado "Como podemos pensar", en donde describe
un máquina teórica llamada "memex", que se considera como la base teórica del hipertexto, el lenguaje de
programación de internet. A lo largo de su vida obtuvo muchos premios y reconocimientos, como por ejemplo
la Medalla Nacional de Ciencia que le fue entregada en 1964.
GEORGE BOOLE (1815 - 1864)

V BOOLE
Boole fue un niño inteligente, y su primer interés fue hacia los idiomas, siendo capaz de dominar el latín
completamente con 12 años. Aunque no había estudiado para ello, empezó dedicándose a la enseñanza siendo
a los 16 años profesor auxiliar en un colegio.
También pensó realizar la carrera eclesiástica, pero en 1835 decidió abrir su propio colegio y fue cuando empezó
a estudiar matemáticas por su cuenta, estudiando los trabajos de Laplace y Lagrange.
Se encaminó hacia el Álgebra publicando una aplicación de métodos algebraicos para la resolución de
ecuaciones diferenciales por el que recibió la medalla de la Real Sociedad Matemática de Londres.
En 1849 fue nombrado catedrático de matemáticas en el Queens College, donde ejerció la enseñanza el resto
de su vida.
En 1854 publicó sus estudios sobre las teorías matemáticas de lógica y probabilidad. Boole redujo la lógica a
un álgebra sencilla, naciendo así lo que se conoce como álgebra booleana, la cual influyó en el desarrollo de la
informática.
Boole murió a los 49 años por causa de una pulmonía. Aunque Boole tiene otros muchos estudios en el universo
de las matemáticas sin duda alguna se le recordará por su álgebra, que fue un paso fundamental en el desarrollo
de las computadoras.
HOWARD HATHAWAY AIKEN (1900 - 1973)

I AIKEN
Nació en Nueva Jersey (EE.UU.), se crio en Indianápolis, donde estudió el Arsenal Technical School,
graduándose en 1919. Tras ello estudió en la universidad de Wisconsin, en donde se especializó en electrónica.
Mientras estudiaba estuvo trabajando como ingeniero operario en la Madison Gas and Electric Company desde
1919 a 1923. Se graduó como ingeniero electrónico en 1923.
En 1937, antes de la guerra, Aiken presentó el proyecto de construcción de una computadora, para el que
obtuvo el apoyo de IBM. Así nació la MARK I (o IBM ASCC), terminada en 1944 con un coste de 250000$.
Inmediatamente finalizada la marina de los EE.UU. requisó tanto a la máquina como a su inventor para usarlos
durante la Segunda Guerra Mundial, Aiken alcanzó el grado de Comandante, y la MARK I se usó para el cálculo
de las tablas navales de Artillería.
Para el diseño de la MARK I, Aiken estudió los trabajos de Charles Babbage, y pensó en el proyecto de la MARK
I como si fuera la terminación del trabajo de Babbage que no concluyó, la máquina analítica, con la que la MARK
I tenía mucho en común.
Además de la MARK I, Aiken construyó más computadoras: MARK II (1947), MARK III y MARK IV (1952).
Tras la guerra, en 1946, Aiken volvió a Harvard como profesor de matemáticas. Además, fue nombrado director
de los nuevos laboratorios de informática de la universidad en 1947, Aiken contó con la colaboración de Grace
Hooper, encargada de la programación de la MARK I.
En 1964, Aiken recibió el premio Memorial Harry M. Goode, de la Computer Society, por su contribución al
desarrollo de las computadoras automáticas, y por la construcción de la MARK I.
GRACE MURRAY HOPPER (1906 - 1992)
II HOOPER
Nació en Nueva York (EE.UU.), desde muy pequeña demostró una gran aptitud para las ciencias y las
matemáticas. Y tanto su abuelo como su padre siempre la animaron a que las estudiara. También le atrajo
mucho cualquier tipo de dispositivo mecánico, y así lo demuestra cuando con 7 años desarmó todos los relojes
de su casa para ver si podía así entender su funcionamiento.
Hopper estudió en varias escuelas privadas para mujeres, y en 1924 ingresó en Vassar College en Nueva York,
donde cursó estudios en matemáticas y física, graduándose con honores en 1928. A continuación obtuvo una
beca para cursar un master en matemáticas en la universidad de Yale, de donde se graduó en 1930.
Vassar College le ofreció un puesto como asistente en su departamento de matemáticas, en donde permaneció
hasta 1943 mientras continuaba sus estudios en Yale, obteniendo el doctorado en matemáticas en 1934.
En 1943 decidió unirse a las fuerzas armadas en plena Segunda Guerra Mundial, para lo cual tuvo que obtener
un permiso especial. Asistió a la Escuela de cadetes navales para Mujeres, graduándose la primera de su clase
en 1944 y obteniendo el rango de teniente. Fue enviada a Harvard para trabajar en el Proyecto de Computación
que dirigía el comandante Howard Aiken, la construcción de la Mark I.
Tras el final de la Segunda Guerra Mundial Hooper quiso seguir en la Armada pero como ya había cumplido los
40 años en 1946 (el límite eran 38) fue rechazada permaneciendo en la reserva. Por lo que siguió en Harvard
como Investigadora junto a Aiken. Desarrolló varias aplicaciones contables para la Mark I, que estaba siendo
utilizada por una compañía de seguros.
Permaneció en Harvard hasta 1949, cuando Hopper empezó a trabajar en la Eckert - Mauchly Corporation en
Filadelfia (compañía fundada por los inventores del ENIAC, Eckert y Mauchly), que en esos momentos estaban
desarrollando las computadoras BINAC y UNIVAC I. Trabajó en esa compañía y en sus sucesoras hasta su
retiro en 1971. Allí fue donde Hopper realizó sus mayores contribuciones a la programación moderna. En 1952,
desarrolló el primer compilador de la historia, llamado A-0, y en 1957 realizó el primer compilador para
procesamiento de datos que usaba comandos en inglés, el B-0 (FLOW-MATIC), cuya aplicación principal era el
cálculo de nóminas. Tras su experiencia con FLOW-MATIC, Hopper pensó que podía crearse un lenguaje de
programación que usara comandos en inglés y que sirviera para aplicaciones de negocios. La semilla de COBOL
había sido sembrada, y 2 años después se creó el comité que diseño el famoso lenguaje. Aunque Hopper no
tuvo un papel preponderante en el desarrollo del lenguaje, fue miembro del comité original para crearlo, y el
FLOW-MATIC fue una influencia tan importante en el diseño de COBOL, que se considera a Hopper como su
creadora.
III HOOPER TRABAJANDO CON LA UNIVAC
Hopper permaneció en la reserva de la Armada hasta 1966, cuando tuvo que retirarse con el grado de
Comandante, por haber alcanzado el límite de edad nuevamente. Pero este retiro duró poco ya que la Armada
la volvió a llamar en 1967 para que estandarizara los lenguajes de alto nivel que usaban. Se reincorporó y
permaneció en el servicio durante 19 años más.
En 1986, Hopper se retiró de la Armada de manera definitiva, siendo en ese momento la oficial de más edad de
la Armada de los EE.UU. Tras su retiro, se incorporó como asesora en Digital Equipment Corporation,
participando en foros industriales, dando unas 200 conferencias por año y participando en programas educativos
hasta 1990, cuando la "increíble Grace", que era como la conocían sus amistades, se retiró definitivamente.
A lo largo de su vida, Hopper recibió numerosos reconocimientos, que incluyen más de 40 doctorados honoris
causa, la Medalla Nacional de Tecnología, la Medalla Wilbur Lucius Cross de Yale, el rango de Comodore en
1983 y el de contra-almirante en 1985.

Chad Hurley & Steve Chen


2005 fue un año crucial para internet y el mundo multimedia ya que Chad Hurley & Steve
Chen comenzaban a dar vida a lo que hoy conocemos como YouTube la red social de
videos más grande de la Tierra. Luego de casi dos años de trabajo la misma alcanzó una
popularidad asombrosa y estos dos chicos se volvieron muy ricos tras vender su compañía a
Google por 1,65 billones de dólares.

Niklas Zennström & Janus Friis


En un momento era muy extraño, hasta casi inentendible, cómo podía viajar tanta
información por internet pero que no se pudiera hacer comunicación al estilo llamada
telefónica a través de la misma. Niklas Zennström & Janus Friis dieron vida a esta idea con
la creación de Skype.

Este sistema de comunicación de videollamada por internet ya cuenta con más de 300
millones de usuarios y la portabilidad de los teléfonos móviles seguramente hará que las
compañías telefónicas desaparezcan dado que no pueden competir contra Skype y su
servicio gratuito.

Bill Gates
Bill Gates es el segundo hombre más rico de la Tierra, y esto no se logra reparando
portátiles. Bill Gates como todos sabemos es el fundador de Microsoftla compañía que
dominó el mundo de los sistemas operativos de todo el mundo en los inicios de la
informática personal.

Hoy en día Microsoft cuenta con bastantes más enemigos y rivales potenciales que en sus
inicios, de todas maneras ha conseguido seguir en la lucha renovando y agrandando su
imperio hacia los videojuegos y los móviles.

Steve Jobs
Steve Jobs seguramente sea una de las figuras más representativas de la revolución
informática ya que tomó aquello obtuso cuadrado y aburrido del mundo informático y lo
hizo bonito, delicado, flexible y por sobre todo lo iHizo.

Steve Jobs es el co-fundador de Apple y una figura casi religiosa para aquellos que han
sabido entender su mente innovadora y creativa. Además de colaborar con el mundo de la
informática es considerado un empresario soberbio y un inventor con mente futurista.

El año 1976 es clave, no sólo para Steve Jobs sino también para Apple, más
particularmente porque en este momento nació la compañía de la manzana. Dicho de otro
modo, en el garaje de una casa, Jobs, Wozniak, y Ronald Wayne, fundaron Apple. Más
tarde, recibieron financiación por parte de Mike Markkula pero lo importante de este
momento fue la creación y el lanzamiento de Apple I, la primera verdadera computadora
hogareña. Jobs comenzó a mostrarse como líder desde aquel entonces: empujo el desarrollo
de los equipos Mac y entendió hacia donde debía ir el futuro. Es decir, ya desde esta
temprana etapa de la compañía, Steve Jobs se mostró como un gran líder y visionario, algo
que, inesperadamente, tendría un impacto negativo.

Hacia 1978, Apple estaba expandiéndose y necesitaba de más personas, de más


profesionales capacitados que asuman diferentes roles para su funcionamiento. A partir de
este momento, se contrató personal y entre estas personas es posible destacar a Mike
Scott de National Semiconductors, quien asumió el rol de CEO en algunos de los años más
difíciles de la empresa. Más tarde, en 1983, Steve convenció a John Sculley para que
abandone Pepsi-Cola y se una a Apple. Sobre esto, es inevitable recordar la siguiente frase
que se le atribuye a Jobs:
Mark Zuckerberg
Facebook, Facebook y más Facebook. Qué sería de mi vida social si no fuera por este
hombre, sí obviamente sería más social, sin embargo, gracias a su red social he sido capaz
de conocer gente de todas partes del mundo y de reencontrarme con mucha gente que nunca
hubiera vuelto a encontrar, algo que tal vez nos haya pasado a todos los usuarios
de Facebook.

Mark Zuckerberg es uno de los cuatro co-fundadores de la red social más usada del planeta
y una de las figuras más representativas del mundo de la informática. Además de esto
es el personaje más joven de la lista de los mil-millonarios de la revista Forves.

Jeff Bezos
Jeff Bezos es el fundador de Amazon la tienda virtual más conocida y confiable del mundo.
Bezos comenzó su empresa en 1995 y tuvo un lento crecimiento que hoy en día coloca a la
empresa en un valor cercano a los 20 mil millones de dólares.

Amazon comenzó vendiendo únicamente libros y expandió sistemáticamente su contacto


con el mundo y los productos que allí se venden. Hoy en día compite con eBay y otras
tiendas virtuales pero seguramente ninguna logre generar un concepto tan único como el
que ha logrado Amazon.
aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa
aaaaaaaaaaaaaaaaaaaaaaaaaLa Investigación de
Operaciones aspira determinar la mejor solución (optima) para un
problema de decisión con la restricción de recursos limitados.

En la Investigación de Operaciones utilizaremos herramientas que nos


permiten tomar una decisión a la hora de resolver un problema tal es el caso de los
modelos e Investigación de Operaciones que se emplean según sea la necesidad.

Para llevar a cabo el estudio de Investigación de Operaciones es necesario


cumplir con una serie de etapas o fases. Las principales etapas o fases de las que
hablamos son las siguientes:

1. Formulación y definición del problema.

Descripción de los objetivos del sistema, es decir, qué se desea optimizar;


identificar las variables implicadas, ya sean controlables o no; determinar las
restricciones del sistema. También hay que tener en cuenta las alternativas posibles
de decisión y las restricciones para producir una solución adecuada.

2. Construcción del modelo.

El investigador de operaciones debe decidir el modelo a utilizar para representar el


sistema. Debe ser un modelo tal que relacione a las variables de decisión con los
parámetros y restricciones del sistema. Los parámetros (o cantidades conocidas) se
pueden obtener ya sea a partir de datos pasados o ser estimados por medio de
algún método estadístico. Es recomendable determinar si el modelo es
probabilístico o determinístico. El modelo puede ser matemático, de simulación o
heurístico, dependiendo de la complejidad de los cálculos matemáticos que se
requieran.

3. Solución del modelo.

Una vez que se tiene el modelo, se procede a derivar una solución matemática
empleando las diversas técnicas y métodos matemáticos para resolver problemas y
ecuaciones. Debemos tener en cuenta que las soluciones que se obtienen en este
punto del proceso, son matemáticas y debemos interpretarlas en el mundo real.
Además, para la solución del modelo, se deben realizar análisis de sensibilidad, es
decir, ver como se comporta el modelo a cambios en las especificaciones y
parámetros del sistema. Esto se hace, debido a que los parámetros no
necesariamente son precisos y las restricciones pueden estar equivocadas.

4. Validación del modelo.

La validación de un modelo requiere que se determine si dicho modelo puede


predecir con certeza el comportamiento del sistema. Un método común para
probar la validez del modelo, es someterlo a datos pasados disponibles del sistema
actual y observar si reproduce las situaciones pasadas del sistema. Pero como no
hay seguridad de que el comportamiento futuro del sistema continúe replicando el
comportamiento pasado, entonces siempre debemos estar atentos de cambios
posibles del sistema con el tiempo, para poder ajustar adecuadamente el modelo.

5. Implementación de resultados.

Consiste en traducir los resultados del modelo validado en instrucciones para el


usuario o los ejecutivos responsables que serán tomadores de decisiones.
Investigación de
La

Operaciones o Investigación Operativa es una


herramienta metodológica cuantitativa que nos permite la asignación óptima de recursos
escasos y en general apoyar de una forma eficiente el proceso de toma de decisiones. La
Investigación de Operaciones hace uso de modelos matemáticos con el objetivo que las
decisiones que éstos nos proveen sean significativamente mejores en comparación a aquellas
decisiones que se toman con una base cualitativa.

Las aplicaciones de la Investigación de Operaciones crecen rápidamente, principalmente por un


mejor conocimiento de estas metodología en las diferentes disciplinas, la creciente complejidad
de los problemas que se desea resolver, la mayor disponibilidad de software y el desarrollo de
nuevos y mejores algoritmos de solución. A continuación un listado de distintas aplicaciones de
la Investigación Operativa y los beneficios asociados a su implementación:

Ahorros
Aplicación Año
anuales

Desarrollo de la política
nacional de administración
The Netherlands del agua, incluyendo mezcla
1985 $15 millones
Rijkswaterstaat de nuevas instalaciones,
procedimientos de
operaciones y costeo

Optimización de las
operaciones de producción
Monsanto Corp. 1985 $2 millones
para cumplir metas con un
costo mínimo
Optimización del corte de
árboles en productos de
Weyerhauser Co. 1986 $15 millones
madera para maximizar su
producción

Asignación óptima de
recursos hidráulicos y
Electrobas/CEPAL
térmicos en el sistema 1986 $43 millones
Brasil
nacional de generación de
energía

Programación de turnos de
trabajo en oficinas de
reservaciones y aeropuertos
United Airlines 1986 $6 millones
para cumplir con las
necesidades del cliente a un
costo mínimo

Optimización de las
operaciones de refinación y
Citgo Petroleum
de la oferta, distribución y 1987 $70 millones
Corp.
comercialización de
productos
Optimización de
SANTOS, Ltd., inversiones de capital para
1987 $3 millones
Australia producir gas natural
durante 25 años

Administración de
inventarios de petróleo y
carbón para el servicio
Electric Power
eléctrico con el fin de 1989 $59 millones
Research Institute
equilibrar los costos de
inventario y los riesgos de
faltantes.

Optimización de la
San Francisco programación y asignación
1989 $11 millones
Police Department de oficiales de patrulla con
un sistema computerizado

Optimización de la mezcla
de ingredientes disponibles
para que los productos de
Texaco Inc. 1989 $30 millones
gasolina cumplieran con los
requerimientos de ventas y
calidad
$20 millones
Integración de una red
+ $250
nacional de inventario de
IBM 1990 millones en
refacciones para mejorar el
menor
apoyo al servicio
inventario

Rapidez en la coordinación
de aviones, tripulación,
carga y pasajeros para
U.S. Military Airlift
manejar la evacuación por 1992 Victoria
Command
aire en el proyecto
"Tormenta del Desierto" en
el Medio Oriente

Diseño de un sistema de
estructura de precios, $500
American Airlines sobreventas y coordinación 1992 millones más
de vuelos para mejorar las de ingresos
utilidades

Optimización del diseño de


una red nacional de
Yellow Freight $17.3
transporte y la 1992
System, Inc. millones
programación de rutas de
envío
Diseño de un programa
New Haven Health efectivo de cambio de 33% menos
1993
Dept. agujas para combatir el contagios
contagio del SIDA

Desarrollo de un sistema
basado en PC para guiar a
$750
AT&T los clientes del negocio en el 1993
millones
diseño del centro de
llamadas

Maximización de ganancias
a partir de la asignación de $100
Delta Airlines 1994
los tipos de aviones en millones
2.500 vuelos nacionales

Reestructuración de toda la
cadena de proveedores
Digital Equipment entre proveedores, plantas, $800
1995
Corp. centros de distribución, millones
sitios potenciales y áreas de
mercado

Selección y programación $425


China 1995
óptima de proyectos millones
masivos para cumplir con
las necesidades futuras de
energía del país

Rediseño óptimo del


Cuerpo de defensa tamaño y forma del cuerpo $1.100
1997
de Sudáfrica de defensa y su sistema de millones
armas

Rediseño del sistema de


producción y distribución
Procter and norteamericano para $200
1997
Gamble reducir costos y mejorar la millones
rapidez de llegada al
mercado

Programación óptima de
empleados para
Taco Bell proporcionar el servicio a 1998 $13 millones
clientes deseado con un
costo mínimo

Rediseño de tamaño y

Hewlett-Packard localización de inventarios


de seguridad en la línea de
producción de impresoras
para cumplir metas de
producción

You might also like